Itthon Biztonság Hogyan vet fel Szaúd-Arábia szofi robotja az ijesztő új kiberbiztonsági kérdéseket?

Hogyan vet fel Szaúd-Arábia szofi robotja az ijesztő új kiberbiztonsági kérdéseket?

Anonim

K:

Hogyan vet fel Szaúd-Arábia "Sophia" robotja ijesztő új kiberbiztonsági kérdéseket?

A:

Az egyik legforróbb új mesterséges intelligencia technológia egy életnagyságú robot, amely úgy készült, hogy nőként viselkedjen és viselkedjen.

A neve Sophia, és Hanson Robotics, egy hongkongi székhelyű cég gyártja. Miért ő Szaúd-Arábia robotja? Mivel ez az Öböl-állam Sophia számára kulcsfontosságú emberi jogot adott: az állampolgársághoz való jogot.

Ez sok címet készít, és mindenféle vitát vált ki a mesterséges intelligencia gyorsaságáról és miért érdekelnünk. Az egyik nagy kérdés a kiberbiztonság - hogyan alkalmazkodik a kiberbiztonsági terület az ilyen típusú új technológiákhoz?

A Sophia és a hasonló technológiák olyan kiberbiztonsági problémákat vetnek fel, amelyekkel még nem foglalkoztunk. Íme néhány dolog, amire a szakembereknek és a szakértőknek gondolniuk kellene, amikor olyan robotokba lépnek, amelyek úgy néznek ki, beszélnek és viselkednek, mint mi.

Általában véve, az új, élethű robot-interfész kifinomultabb, mint amit a múltban megszoktunk, és ez számos új kiberbiztonsági kérdést jelent. A technológiai világban az emberek arról beszélnek, hogy „vékony támadási felülettel” rendelkeznek, például hipervizorban vagy a szerveroldali biztonságba építve. A sétáló, beszélt robot viszont nagyon vastag támadási felület - mivel az interfészek kifinomultak, a hackerek és a rossz szereplők számára számos lehetőség nyílik a sebezhetőség kihasználására.

A kiberbiztonsági probléma egyik nagyon specifikus típusa keveredik különféle társadalmi kérdésekkel - „impostor szindrómának” nevezhetik, bár ezt a kifejezést népszerûen használták az illegitim adattudósok változatos mûködésének leírására.

Bármit is hívják, a probléma az, hogy mivel a mesterséges intelligencia bizonyos embereket nagyobb sikerrel utánoz, egyre nehezebb lesz annak biztosítása, hogy ne kerüljenek alá olyan rendkívül bonyolult megtévesztések, amelyek miatt az igazság megkérdőjelezzük. Már láthat példákat az emberekre, akik vadonatúj technológiákat alkalmaznak a híres politikusok utánozására, mint ez a Barack Obama videó, a Jordan Peele komikus című filmben. A csalók problémája csak növekszik és bővül, mivel a mesterséges intelligencia új ablakokat ad nekünk az emberi gondolatok és viselkedés visszafordításának tervezéséhez.

Ugyanakkor általában ezek az új interfészek és képességek fogják kibővíteni a biztonsági szakemberek és a hackerek között már folyamatban lévő fegyverversenyt. James Maude erről ír egy cikkben, amely az Xconomy-ról szól, és amelyben az AI-t kettős élű kardnak nevezi a kiberüzenetek számára, és rámutatott, hogy a támadás általában kevésbé költséges, mint a magánélet és a biztonság védelme, valamint észrevételek. Az érvek egy részét extrapolálhatjuk az AI robotra, és láthatjuk, hogy az erő és a képesség miként jelent veszélyt és fegyelmi igényt.

Egy másik nagy új kérdés a Sophia és a mobil robotok esetében az, hogy mozgásban vannak.

Megszoktuk az olyan technológiákat, mint az IBM Watson, amelyek rendkívül magas szintű kognitív munkát végeznek, miközben adatközpontban vagy valamilyen álló hardverszerkezetben ülnek. Erre szoktunk - a legkorábbi mainframektől a mai laptopokig, mindegyikünk helyhez kötött hardvert használtunk. Van már mobiltelefonunk, de valójában alapvetően zsebszámítógépek. Az érzékeny robotok meglepően különböznek egymástól. Autonóm mozgó darabok, amelyeket rosszindulatú felek fegyverezhetnek. A Reuters cikke, amely a robot kiberbiztonsági problémáinak kezelésének sebességét vizsgálja, megmutatja, hogyan lehetne például a robotokat „elkényeztetni”, vagy gyorsan és nem megfelelő módon mozogni, hogy potenciálisan kárt okozzanak.

Végül Sophia és az őhöz hasonló robotok jelentős számú kiberbiztonsági kérdést vet fel és egyéb aggályokat vetnek fel. Hogyan különböztethetjük meg a legitim tevékenységet a megtévesztő és az illegitim tevékenységektől, ha az interfész nem digitálisan csatlakoztatott hálózat, hanem mobil hardver elem, amely becsaphat bennünket arra, hogy azt gondoljuk, hogy emberi módon működik? Ennek a hídnak a átlépése óriási mennyiségű technológiai és etikai munkát igényel annak biztosítása érdekében, hogy az emberek megőrizzék a gyeplőt, és hogy ezeket a rendkívül erőteljes technológiákat polgári jólét érdekében használjuk.

Hogyan vet fel Szaúd-Arábia szofi robotja az ijesztő új kiberbiztonsági kérdéseket?