Üzenetküldők, amik felfedik az új mobilszámod (is) egy creepy fícsörön keresztül

viber-sebezhetosegMindenki számára ismerős jelenség, aki használ Vibert, Whatsappot, Telegramot, Signalt, LINE-t vagy hasonlót, hogy időnként megjelenik egy üzenet arról, hogy “Alice éppen regisztrált, köszönj neki!”.

A háttérben persze az történik, hogy amikor Alice regisztrál például a Viberre, az összes olyan felhasználónál, ahol a Viber telepítve van és Alice regisztrációhoz használt hívószáma el van mentve a telefonkönyvükben, amit alapértelmezés szerint a Viber folyamatosan olvas és össze tud vetni a már regisztrált, cloudban tárolt számokkal, ez alapján jelez. Alice erről persze alighanem nem tud, hacsak nem olvasta el a maratoni hosszúságú T&C-t.

Ami viszont ennél sokkal érdekesebb, hogy ha egy Viber felhasználó új mobilszámot kezd használni, ugyanakkor nem akarja a korábbi Viber accountját törölni és teljesen újat létrehozni, lehetősége van a meglévő accounton a szám átírására is. Ekkor pedig olyasmi történik, ami privacy szempontból minimum juicy: az összes kontakt értesítést kap róla, hogy Alice Viberen használt hívószáma megváltozott és arról is, hogy egészen pontosan milyen korábbi számról milyen új számra. Viszont ez már némileg más mechanizmus alapján történik, itt kezdődik az izgalmas rész!

A Viber ugyanis ezt a figyelmeztető üzenetet egyrészt az előbb ismertetett mechanizmus alapján dobja szét, másrészt azoknak a felhasználóknak _szintén_, akik Alice telefonkönyvében el vannak mentve és használják a Vibert. A leginkább creepy az egészben, hogy sajnos azok a felhasználók is értesülnek róla, akiket Alice esetleg le is tiltott, mivel ezt az adatot már az üzenetküldő nem látja, viszont ahhoz, hogy egy szám tiltva legyen, valahol a mobil oprendszerének nyilván tárolnia kell olyan bejegyzéssel, hogy le van tiltva.

IRL: ha Alice szakított Bobbal, majd Bobot mindenhol letiltotta, esetleg azért változtatta meg a mobilszámát (amit csak nagyon kevesen tudnak) hogy Bob nehezebben tudja elérni, a Viber Bob előtt fel fogja fedni Alice új mobilszámát!

Az, hogy a világ legnagyobb felhasználói bázisával rendelkező közösségi webes szolgáltatásai folyamatosan dolgoznak azon, hogy a privacy beállítások áttekinthetőbbek legyenek a felhasználók számára, nemes dolog, ennek ellenére mégis azt látjuk, hogy tömegeknek még mindig túlságosan bonyolult ezeket a beállításokat megfelelően megadni.

A viberes eset pedig pláne olyan, amivel kapcsolatban nem várható el egy átlagos felkészültségű felhasználótól, hogy tudja, ami akár kockázat is lehet, ha ne adja isten, Bob hogy úgy fogalmazzunk, a kelleténél jobban ragaszkodik a Alice-hoz a szakítás után. Külön pikáns a sztoriban, hogy a Viber gyakorlatilag éppen az ellenkezőjét csinálja, mint amit ígér, hiszen elvben nincs kizárva, hogy egy VM-re telepített Androidon, amiben el van mentve több tízezer mobilszám és futtat egy Vibert, kimondottan azt kövesse, hogy ki mikor regisztrált vagy változtatott mobilszámot, olyan finomságokról nem is beszélve, hogy a Viber sokáig, talán még mindig alapértelmezés szerint a Facebook profilképet használta avatarképként ill. nagyon gyakran azt állítja be a felhasználó, valamint a szolgáltatás mutatja, hogy a felhasználó mikor volt utoljára akív.

Ahogy Keleti Arthur megjegyezte egyszer, nagyon közel van az az éra, amikor már teljesen esélytelen lesz még a megfelelő privacy beállítások megadása is a felhasználók saját döntéseik alapján, egyszerűen azért, mert túlságosan bonyolultak, ezért majd beállítja helyettük valamilyen jólnevelt AI. Hogy a beállítások milyen áttekinthetetlenül bonyolultak tudnak lenni, ennek megfelelően épphogy nem az a célt szolgálják, amire kitalálták őket, arról a Google Plus-szal foglalkozó posztban is írtunk.

Mesterséges intelligenciáról – komolyan I.

mesterseges-intelligencia-etikaA mesterséges intelligencia alkalmazásának általánossá válásával kapcsolatban rendszerint felmerülnek azok a kérdések, amik valamilyen etikai oldalt próbálnak a ízekre szedni egy hipotetikus jelenséget. Ez persze helyes, viszont ha nem is éppen kocsmafilozófiai szintű bölcsességeket hordanak összes sokszor még a komolyabban vehető fórumokon is, ugyanazok a legrágott csontok kerülnek elő a témát tárgyalók tájékozottságának megfelelően.

A mindenki által ismert klasszikus, hogy a jövőben egy önvezető autó olyan típusú döntéshelyzetben, amikor arról kell döntenie, hogy egy szabálytalanul szembe jövő kocsinak ütközik, az ütközés következtében pedig minden utasa meghal, de alternatívaként választhatja azt is, hogy felkanyarodik a járdára és elüt ugyanannyi gyalogost, akkor mégis mi alapján kellene megtanítani a helyes döntési stratégiára?

Igen ám, csakhogy ez az elgondolás ezer sebből vérzik. A következő néhány gondolat nem teljesen saját, nemrég vehettünk részt egy olyan rendezvényen, ahol éppen hasonlók kerültek szóba, a téma elismert kutatói pedig éppen a hadtudomány és közlekedéstudomány területéről hoztak példákat azzal együtt, hogy sokszor miért rosszak.

Világos, hogy nincs tökéletes gondolatkísérlet, de a fent vázolt eset már-már túl sterilnek mondható, éppen ezért a kérdésfelvevés ebben a formában hihetetlenül laikus. Alapvetően nem tudjuk, hogy mit hoz a szingularitás, azaz ha csak az önvezető járműveket nézzük, annyi minden történhet még az általánossá válásukig, amiket nem tudunk a gondolatkísérletünkbe ágyazni, holott fontos lenne, hogy az is egy vélemény, ami szerint a kérdésfeltevés ma még szinte értelmetlen. Egy analógiával élve: olyan ez, mintha a középkorban tudták volna, hogy lesz egy olyan információs hálózat, amin keresztül szinte minden elérhető, többet nem nagyon, de már a közösségi web természetével kapcsolatban akartak volna jóslatokat megfogalmazni.

Az előzőhöz kapcsolódó tudománytörténeti érdekesség, hogy a vonatok és az első kocsik esetén is aggasztó kérdés volt, hogy az emberi testre nem hat esetleg kiszámíthatatlan módon a lovaskocsikétól nagyobb sebesség.

Egy bioetikával is mélyen foglalkozó filozófus szót ejtett arról, hogy az etikatörténet azért sokkal érdekesebb, mint amilyennek első hallásra tűnik, mert a lényeg azon van, hogy a közösség tudatában mikor mit jelentettek olyan fogalmak, mint az etika vagy a morál.

Hogyan kapcsolódik mindez ide?

Ismét csak a technológiai szingularitást húznánk elő: nem tudjuk, hogy maga az etika, annak felfogása hogyan értelmeződik át, ahogyan azt sem, hogy a szociálpszichológiai értelemben vett hallgatólagos társadalmi szerződések, konszenzusok, ezzel párhuzamosan pedig a social norm hogyan fog változni. Sejthetően annyira azért nem, hogy valaha is bocsánatos bűn legyen mondjuk embert ölni, ennél konkrétabbat nem nagyon lehet mondani biztosra még középtávon sem!

Egy mérnök informatikus végzettségű filozófus dobott egy nagyon pazar példát. Miért van az, hogy az AI-val kapcsolatban megfogalmazunk olyan félelmeket is, amik egyszerűen nem racionálisak, az viszont alig jut eszébe valakinek, hogy amikor valaki vesz egy Hummert vagy hasonló több tonnás kocsit, ezzel gyakorlatilag eldöntötte, hogy egy komolyabb baleset esetén más embereket fog megölni, jobb esetben csak megsebesíteni.

És tényleg! Ez belefér, az AI tévedése már nem? Lépten-nyomon előtűnik az, hogy az AI-val kapcsolatban sokkal szigorúbb, többször alapvetően irreális vagy irreálisan szigorú feltételeket támasztunk etikai szempontból, mint önmagunkkal kapcsolatban. Így tényleg indokolt lenne visszatérni néhány alapvetéshez.

De nem csak a polgári közlekedésből, a hadtudomány területéről is hozhatunk igencsak ütős témákat. Az USA döntéshozóit bő 10 éve nem keveset támadták amiatt, hogy háborús környezetben drónokat lehessen-e bevetni vagy sem. Egy pillanatra megtorpannánk: függetlenül attól, hogy valaki mennyire pacifista, el kell fogadni azt a tudományos tényt, hogy a hadműveletek semmi máshoz nem hasonlítható civilizációs szituációk, amikor a legelemibb ösztönöket és mindenféle magasabb szintű gondolkodási folyamatot félretéve a katona dolga az, hogy megölje az ellenséges katonát. Ahogy az is alapvetés, hogy a lakosságot viszont tilos támadni. Más kérdés, hogy a mai háborús szituációk sokszor nem járnak tényleges katonák halálával vagy csak nagyon kevesen sebesülnek meg.

A Pentagon más szervezetekkel együtt dolgozva a drónok alkalmazását olyan módon engedélyezte, hogy gyakorlatilag mindent csinálhatnak, amire csak képesek, viszont semmilyen körülmények közt nem ölhetnek. Ilyenkor a laikus pislog, néz ki a fejéből és nem érti, hogy ha egy drón például egy katonai támaszpontra vagy erőműre ráküldhet egy rakétát, ami aztán vagy jár katonák, esetleg civilek halálával vagy sem, akkor már nem mindegy, hogy szándékosan ölhet-e vagy sem? Nos, nem.

De nem is ez a lényeg. Hanem az, hogy miért döntött úgy egy, sok-sok, igencsak értelmes emberből álló testület, hogy a drónok ugyan bőven fel lehetnek szerelve emberi élet kioltására alkalmas eszközökkel, ölni pont nem ölhetnek, ellentétben a katonákkal.

Itt mutatkozik meg, hogy a tudásunk ezen a téren mennyire korlátozott. A katona attól katona, arra képezték, hogy háborús szituációban mérlegelés nélkül teljesítse a felettese utasítását, ugyanakkor paradox módon időnként dönthet, hogy lelő-e valakit vagy sem, míg a drónnak nincs meg ez a szabadsága? Ahogy szó szerint nagyon frappánsan elhangzott: “honnan tudjuk, hogy az ember jobban öl, mint az AI”, itt a jó alatt a hadtudományi értelemben vett szakszerűség értendő.

Ezen kívül több izgalmas, döntéselméletet és jogelméletet vastagon érintő kérdés is felmerült. Az Európa legnagyobb részében alkalmazott kontinentális jogrendszerek egyik lényege, hogy ha nem is mentesek a hézagoktól, talán annyi megállapítható, hogy az élet teljes területét lefedik. Akár a polgári jog – olyan, e sorok írójának legszebb területei, mint a szerzői jog – akár a sokszor példákban könnyebben érthető büntető-eljárásjog és büntetőjog. Inkább hagyjuk is, hogy mi is lényegében maga a jog, mert elmagyarázni alighanem bonyolultabb, mint egy polinéziai bennszülöttnek azt, hogy mik az internetes mémek.

Példákon keresztül persze mindenkinek van valami szemléletes képe róla, szorítkozva a kontentális jogrendszerek működésére, a többségnek pedig az életellenes bűncselekmények jutnak eszükbe, ha bonyolult kérdésekről van szó. Ott viszont egy-egy törvény alkalmazása annyira egyszerű lehet, hogy még egy laikus is megtippelheti, hogy egy-egy esetben melyik vádpont fog megállni a bíróságon.

Tételezzük fel, hogy két részeg összeverekedik a kocsmában, aminek eredményeként egyikük meghal. Míg egy másik esetben a cél kimondottan egy másik életének kioltása. Az első testi sértés, a második pedig emberölés, a kettő elkülönítésével pedig nincs könnyű dolga a vádhatóságnak sem.

A lényeg viszont, hogy már évtizedekkel ezelőtt terveztek olyan szakértői rendszereket, amik lényegében egy in real life szituációt értelmeztek, sok-sok bemenő adat alapján értékeltek, majd ha úgy tetszik, formális logikánál nem sokkal bonyolultabb módon „rápattintották” a megfelelő jogszabályt.

Nem meglepő módon a jogászok nem voltak oda az ötletért, holott a jog lényege az lenne, hogy egyféle esetet csak egyféleképp lehessen elbírálni, függetlenül attól, hogy azt kik végzik, akár egy közlekedési szabálysértésről, akár terrorcselekményről van szó. Nagyon gyorsan hozzátesszük, hogy nincs “egyszerűbb” és “bonyolultabb” eset olyan szempontból, hogy milyen törvény alapja képzi a vádat, de.

Abban nagy meglepetés nincs, hogy egy-egy, totál egyszerű jogesetet is a laikusok mind teljesen máshogy ítélnének meg. Ami már meredekebb, hogy a 7-10 évet tanult ügyvédek, és a 10-15 évig tanult bírák ugyancsak. Persze pimasz megfogalmazással ők szakszerűbben nem értenek egyet.

A jogrendszer szereplőinek döntéseinél is mindig kisebb-nagyobb mértékben jelentkezik egyfajta belső, törvény fölött álló meggyőződés, ami külön pontos terminust is kapott. Lényeg, hogy kimondatlanul, de például a nem jogi értelemben vett méltányosság is kihat a bíró vagy éppen a vádhatóság tagjainak döntéseire. Remek kérdés, hogy ez mennyire teszi összességében hatékonyabbá a teljes rendszert. Az biztos, hogy előre nem látható, nagyon súlyos következményei lennének annak, ha ezt a kimondottan emberi sajátosságot egyszerűen elhagynák egy robotbírók, robotügyészek és robotügyvédek módján működő szakértői rendszerből.

Visszaugorva a közlekedésbiztonság és az AI jövőbeli kapcsolatára. Az MIT Moral Machine-jében megtalálható olyan eset is, amikor dönteni kell, hogy ha egy hipotetikus esetben végképp nincs más választás, akkor a kocsi jobbra vegye a kanyart és egy idős ember üssön el, vagy balra vegye, amivel egy ötéves kisfiú életét oltja ki. Megengedhetjük-e magunknak azt a luxust, hogy a totálisan steril szituációt a való világba ültetjük gondolatban és hozzátesszük, hogy a kisfiú bizony egy véres kezű diktátorrá is cserepedhet?

Senki sem mondta, hogy a bioetika egyszerű műfaj lenne. Mert nagyon nem az. Olyannyira nem, hogy már magyar nyelven is olvashattunk róla cikket nemrég, amiben a szerző az taglalja, hogy az informatikushiány mellett a világra szakadhatna még egy filozófushiány is, amivel kezelhetőbbé válnak az ilyen problémák, dilemmák.

Jópofa időtöltés lehet a böngészőben embereket csapni el a legkülönbözőbb módon a MIT Moral Machine-nel, tudományos alapokon, arra azért minimum kíváncsiak lennénk, hogy a különböző kultúrákból számazó felhasználók tipikus döntési sémái hogyan különböznek egymástól.

A precíz tudományos kifejtést és szóhasználatot a könnyebb érthetőség kedvéért a szokásosnál némileg gyakrabban áldoztuk fel a cikkben.