K:
Felismerheti-e a szexuális vagy politikai irányultságát azáltal, hogy arcfelismerésen keresztül a képeire nézi?
A:Röviden: Igen, tudnak, és még jobbak, mint az emberek, ha megteszik. A Stanfordi Egyetemen egy nagyon zavaró tanulmány szerint az emberi arcok képei rengeteg információt tartalmaznak, amelyeket az emberi agy egyszerűen nem tud feldolgozni, míg a mesterséges intelligencia képes. Kutatásaik szerint egy mély idegi hálózat képes volt megkülönböztetni a melegeket és a heteroszexuális férfiakat az esetek 81% -ában, a nők 74% -ában, szemben a férfiak csupán 61% -ával és a nők 54% -ával az emberi bírókkal. Ha az algoritmus legalább öt képet tartalmazott a beolvasandó személyről, akkor a siker százaléka 91, illetve 83 százalékra nőtt.
Az AI nemcsak képes megkülönböztetni néhány „nemi szempontból atipikus” tulajdonságot, például az ápolás stílusát és a divatválasztást, hanem a gép bizonyos sajátos fenotípusos vonásokat is felismert az arcukban, például a melegeknek, akiknek keskenyebb az állkapocs, nagyobb a homlokuk és a hosszabb orruk. Függetlenül attól, hogy ennek a felfedezésnek esetleges következményei vannak (például az a gondolat, hogy a nemi orientáció összekapcsolódhat bizonyos genetikai tulajdonságokkal), nagyon ijesztő, hogy milyen káros lehet ennek a technológiának az alkalmazása. Például azok a kormányok használhatják, amelyek vádolják az LGBT-embereket, hogy "átvilágítsák" őket, vagy egyszerűen megsértsék számtalan felhasználó magánéletét mindenféle rosszindulatú céllal - a célzott marketing a legkevesebb gonosz.
Az még inkább kellemetlenné teszi, hogy hasonló technológiák már rendelkezésre állnak, és már használatban vannak. Az AI sokkal többet fedezhet fel, mint pusztán a szexualitás, ha egy emberi arcra nézi képet: érzékelheti az érzelmeket, az IQ-t és még a politikai preferenciákat is. Hasonló AI-alapú pszichometrikus profilozási technológiákat használtak adatok gyűjtésére a Facebook profilokból, és következtetések levonására a személyes preferenciákról és az életmód megválasztásáról. Ily módon a szavazók csak a célzott politikai hirdetések egy meghatározott részét látnák, amelyek finoman irányíthatnák politikai döntéseiket.
A kísérlet alkotója, Michal Kosinski pszichológus aggodalmát fejezte ki a lehetséges kockázatok miatt, ha ezt a technológiát gonosz célokra használják, annyira, hogy ő és csapata sok időt töltött azzal a mérlegeléssel, hogy az eredményeket egyáltalán nyilvánosságra kell hozni. A politikai tanácsadó Cambridge Analytica valójában állítólag a közösségi hálózatoktól gyűjtött információkat felhasználta olyan hirdetések futtatására, amelyek befolyásolták a 2016. évi amerikai elnökválasztást, és esetleg a brit Brexit kampányt is. A folyamatban lévő vizsgálat szerint a robotok hatalmas serege számos pontosan megcélzott hamis hírt terjesztett el Hillary Clintonról, hogy potenciális választóit Donald Trump szavazására irányítsa. Ezeknek a hirdetéseknek a nagy részét az intelligens algoritmusok a helyszínen építették fel, hogy az emberek nagyobb események vagy választási viták során megjelenjenek. Az AI azt is megmérte az emberek reakcióit, hogy megerősítsék hatékonyságukat azáltal, hogy befolyásolja Clinton szavazóit abban, hogy azt higgyék, hogy gonosz és elkeseredett ember.
A botrány után az ügynökséget bezárták, de hasonló technológiák továbbra is léteznek, és rosszindulatú célokra is felhasználhatók. Kosinski sok beszédet figyelmeztett erre a veszélyre jóval a botrány előtt, ám sajnos az emberi természet nem változtatható meg. Egy nyilvánosságra nem hozott kísérletben azt állította, hogy AI képes megkülönböztetni a republikánusok és a demokraták arcát, bár elismerte, hogy a szakáll változtathat. Tehát az összes ottani összeesküvés-elmélet (és a magánélet-megtakarítást élvező ember) számára itt van egy nagy tipp - ha azt akarja megakadályozni, hogy a kormány belebukkanjon a magánéletbe, csak szakállat kell felnövelnie. Hatalmas, ha lehetséges.