Itthon Hang Miért kutatja a darpa a magyarázható ai-t?

Miért kutatja a darpa a magyarázható ai-t?

Anonim

K:

Miért kutatja a DARPA a "magyarázható AI" -t?

A:

Általánosságban elmondható, hogy a magyarázható mesterséges intelligencia az adattudományok területén a legmodernebb munka sokrétű részévé vált. Segít az eredendően ingatag és dinamikus technológia emberi irányításának irányításában - a magyarázható AI segít sok olyan kollektív kérdés megválaszolásában, amely arról szól, hogyan fog működni a mesterséges intelligencia.

A megmagyarázható AI megértéséhez segít megérteni, hogy néz ki a „rendes AI”. Hagyományosan, amint az AI kialakulni kezd, a tipikus projekt egy képzeletbeli új szoftver képességből áll, amelyet algoritmusokba és edzőkészletekbe és lineáris kódba rejtenek, ez egy "blokkoló doboz" a felhasználók számára. Tudják, hogy működik - csak nem tudják pontosan, hogyan.

Ez "bizalmi problémákhoz" vezethet, ahol a felhasználók megkérdőjelezik a technológia döntésének alapját. A magyarázható AI-nak erre kell irányulnia: A magyarázható AI-projektek további infrastruktúrával rendelkeznek, hogy megmutassák a végfelhasználóknak az AI szándékát és felépítését - miért csinálja, mit csinál.

Egy olyan korban, amikor a legfontosabb innovátorok, mint például Bill Gates és Elon Musk aggodalmát fejezik ki amiatt, hogy a mesterséges intelligencia hogyan fog működni, a magyarázható AI rendkívül vonzónak tűnik. A szakértők szerint a jól megmagyarázható intelligencia segítséget nyújthat a végfelhasználóknak annak megértésében, hogy a technológiák miért teszik az általuk elvégzett tevékenységeket, növelheti a bizalmat, és emellett megkönnyítheti ezen technológiák használatát.

Pontosabban, a DARPA önmagában magyarázza el, hogy miért érdekli az új projektek. A DARPA egyik oldala azt mutatja, hogy a Védelmi Minisztérium a mesterséges intelligencia alkalmazásának „torrentjét”, és fejlesztésének némi káoszát várja el.

„A folyamatos fejlesztések olyan autonóm rendszereket ígérnek, amelyek önmagukban érzékelik, megtanulják, döntenek és cselekszenek” - írja David Gunning. „E rendszerek hatékonyságát azonban korlátozza az, hogy a gép jelenleg nem tudja magyarázni döntéseit és tetteit az emberi felhasználók számára. … A magyarázható AI - különösen a magyarázható gépi tanulás - nélkülözhetetlen, ha a jövőbeli harcosok megértik, megfelelően bíznak és hatékonyan irányítják a mesterségesen intelligens géppartnerek feltörekvő generációját. ”

Gunning online esszéje azt sugallja, hogy a magyarázható AI rendszerek hozzájárulnak a technológiák „indokolásához”, megmutatják azok erősségeit és gyengeségeit, és átláthatóbbá teszik a felhasználási eseteket. Az oldal grafikája azt mutatja, hogy a mesterséges intelligencia funkcionális képességeinek egy egyszerű vonalát az edzési adatokból ki lehet egészíteni valamivel, amit elmagyarázható modellnek és magyarázható felületnek hívnak, amely segít a felhasználónak a kérdések megválaszolásában. Gunning azt sugallja továbbá, hogy a magyarázható AI-programnak két fő fókuszpontja lesz: az egyik multimédiás adatokon keresztül szitálódik, hogy megtalálják, mi hasznos a felhasználók számára, és egy második fókusz a döntési folyamatok szimulálása lenne a döntéstámogatás érdekében.

A DARPA reméli, hogy létrehoz egy „eszközkészletet”, amely elősegítheti a jövőben megmagyarázható AI rendszerek fejlesztését.

Miért kutatja a darpa a magyarázható ai-t?