Bűvös userID, ami a fél életed megmutatja bárkinek több szolgáltatásban

alice-csodaorszagbanA szolgáltatás, aminek a privacy beállításain még a legharceddzettebb felhasználók sem tudtak kiigazodni, ilyen módon kikotyogott mindent a felhasználókról tudtuk nélkül – és most nem is a gignatikus adatlopásra gondolunk – a Google Plus 2019. április 2-én szépen lehúzta a rolót. Ez azt jelentené, hogy a Google felhasználók egyedi, felhasználói azonosítói hozzáférhetetlenné váltak volna, ilyen módon nélkülöznünk kell egy igencsak ütős OSINT-eszközt? Nem egészen.

Nem részleteznénk, hogy a Google-fiók alá tartozó Youtube-azonosító, Google Plus-azonosító (amíg létezett), Google Hangouts-azonosító nem mindig ugyanaz, viszont egy ijesztően egyszerű trükkel számtalan információ fedhető fel egy Google-felhasználóról, ha a Google szolgáltatásaiban nem állította be megfelelő elővigyázatossággal, hogy mit is oszt meg önmagáról – vagy egész egyszerűen alapértelmezetten hagyta a kapcsolódó beállításokat. Nem lenne könnyű megállapítani, hogy ebben az egészben mi mindennek a csimborasszója, de alighanem az, hogy az androidos mobilok, valamint az iOS-re telepített Google-szolgáltatások alapértelmezés szerint szinte mindent publikusan lekérdezhető módon kezelnek.

Az alábbiakban egy példán keresztül lépésről lépésre vezetjük az olvasót, hogyan jeleníthet meg egy felhasználóról gyakorlatilag minden aktivitást az userID kinyerését követően. Nem foglalkozunk viszont a kinyert adatok lehetséges felhasználásával. Ez hasznos lehet, ha azt szeretnénk megállapítani, hogy valaki egy eldobható Gmail-es címet hozott létre nemrég vagy olyan felhasználó, aki aztán mindent megoszt ész nélkül, így nem lenne praktikus olyan munkahelyre felvenni, ahol minősített adatokkal kell dolgoznia, több ötletet nem is adnánk, ami viszont fontos, hogy az ilyen információkinyerés célirányosság nélkül nem kutatás, hanem stalkolás.

A Gmail-fiók az, ami aztán tényleg mindenkinek van, annak is, aki egyébként ezer éve nem használja, így ezen cikk szerzőjének is. Miután megnyitottuk a Firefoxon vagy a Chrome-ban a Developer tools-t, egyszerűen lépjünk be a Gmail-fiókunkba.

Ezt követően navigáljunk a bal fülőn előtűnő Google Hangouts tabra, ha nem lennénk bejelentkezve a Hangouts-ba, tegyük meg.

google-userid-gathering-1

AZ oldalra kihelyezett Developer tools minden mozzanatot naplózó Network tabja ekkor már tele lesz mindenféle lommal, amit a Clear console gombra kattintással üríthetünk ki. Ezt követően a session rögzítéséhez kattintsunk a Clear console melletti Record gombra. Miután ez megtörtént, a Hangouts tabon egyszerűen kattintsunk annak a vizsgálni kívánt felhasználónak a nevére vagy vegyük fel a Google Accounthoz kapcsolt, szinte mindig gmail.com-os címe alapján, ami ismert, majd kattintsunk rá. Ezt követően állítsuk is le a felvételt a Developer toolsban.

google-hangoust-developer-tools-2

Érdemes tudni, hogy még ha csetablakot is nyitottunk a felhasználóval – de nem írtunk neki – a másik fél mindebből semmit sem fog észlelni. A Developer tools-on a jobb egérgombbal való kattintás után válasszunk egy tetszőleges elemet, majd a Save all as HAR with content menüpontot és mentsük el a HAR-fájlt. (A módszer az esetek többségében működik, a másik felhasználó privacy beállításaitól függően – például bárki írhat neki vagy csak akinek elfogadta a meghívását korábban.)

Nem baj, ha alig értünk valamit abból, amit a böngészőnk küldött a Google felé és a Google arra válaszolt, ha pedig megnyitjuk nyers szövegként a fájlt, egy körülbelül egymillió soros masszát kapunk, amiben igencsak elveszünk, ha nem tudjuk pontosan, hogy mit is kell keresni. Az egyszerűség kedvéért most feltételezzük, viszont magának a Google-nek van saját, online HAR-elemzője, ahova csak fel kell tölteni a fájlt és már át is látunk a káoszon: https://toolbox.googleapps.com/apps/har_analyzer/

google-har-analizis-3

Az All entries nézetet választva a legegyszerűbb, ha a bal oldali keresőbe beütjük egy részletét az ismert felhasználói névnek vagy email-címnek, máris megkapjuk, hogy merre kotorásszunk tovább. Esetünkben a https://contacts.google.com/_/SocialPeopleHovercardUi/data/batchexecute kérésre adott válaszként, a jobb oldali panel Response content tabjára navigálva találjuk meg a 21 számjegyű azonosítót, ami a keresett felhasználó userID-ja.

Ha nem annyira penge a számmemóriánk, ezt a számot egyszerűen másoljuk ki egérrelmajd látogassunk el például a Google Maps-re, ahol ugye a felhasználói review-k is vannak.

A https://www.google.com/maps/contrib/ URL-t követően egyszerűen illesszük be a vágólapon lévő azonosítót a böngésző címsorába és már meg is jelenik az összes hely, ahova a felhasználó becheckolt és/vagy értékelte, továbbá azok a képek, amiket ő töltött fel. Amit fontos tudni, hogy az összes csak akkor jelenik meg mind a Reviews, mint pedig a Photos fül alatt, ha a lista végére gördítunk.

google-maps-osint-4

Természetesen nem csak a térképalkalmazást használhatjuk információforrásként, ellátogathatunk a Google más szolgáltatásaiba is, ahol rendszerint nem szükséges ennél bonyolultabb trükk, a felhasználó nevére kattintva előtűnik még, hogy milyen szolgáltatásban mennyire volt aktív, innentől pedig már tényleg csak egy lépés ellátogatni az adott szolgáltatásba, majd megnézni, hogy ott milyen nyomokat hagyott maga után.

google-felhasznaloi-aktivitas-osint-5

Ez persze nem feltétlenül működik döglött Google-szolgáltatások esetén, viszont ha például a már inaktív Google Answers szolgáltatásba keresnénk, minden további nélkül használhatjuk a inurl:answers.google.com operátorral a felhasználó nevét, felhasználónevét vagy azonosítóját.

Nem lehet elégszer hangsúlyozni, hogy a kutatásnak mindig célirányosnak kell lennie – jelen esetben kellően aktív felhasználót választottunk – intuitív adja magát a kérdés, hogy miért jó valakinek, ha gyakorlatilag ráköti az agyára az internet patásördögének kikiáltott szolgáltatását, a Google-t, aztán megoszt mindent. Nem tárgya a cikknek, de alighanem egész egyszerűen nem is tudja, hogy amit feltölt, gyakorlatilag korlátozás nélkül megjeleníthető, esetleg egy felhasználó véletlenül tölt osztott mappába olyan fotó vagy videós tartalmat, amit rosszabb esetben tényleg mindeképp célszerűbb lett volna mondjuk a négy fal közt hagyni 🙂

google-fotok-osintGDPR ide, GDPR oda, szolgáltatásokban folyamatosan throttle-olt API-k ide vagy oda, mindig meg lehet találni a módját számunkra új módszereknek vagy módszerek kombinációjának, amik a nyílt forrású információszerzést segítik. Ez különösen fontos, ha azt nézzük, hogy az etikus hekkelés területén az első lépés mindig annak feltérképezése, hogy mit is kellene támadni és hogyan, amiben persze nem csak szigorúan véve az informatikai infrastruktúra jellemzőinek ismerete játszhat kulcs szerepet, hanem a social engineering előkészítésekor bizonyos kulcs személyekkel kapcsolatos információk is.

Etikus hekkelést tanulnál? A NetAcademia oldaláról nem tűntek el, csak kissé elbújtak. A korábbi ethical hacking tanfolyamok elérhetők a Tanfolyamkereső NetAcademia almenüje alatt a Classic választékban keresve. OSINTológia tanfolyam legközelebb? Előre láthatóan az is!

Az adatszivárgások anatómiája

linkedin-jelszavakAz előző posztban hivatkoztuk a SecureNetworkx szakmai blogjának azt a bejegyzését, ami alapján gyorsan képbe kerülhetünk minden idők egyik legnagyobb – ha nem a legnagyobb – adatszivárgásáról. Nemrég a SecureNetworkx ügyvezetője, Kocsis Tamás beszélt az ISACA Budapest Chapter második szerdai előadásán arról, hogy hol is tart ma az, amit nevezhetnénk úgy is, adatszivárgás kutatás.

Mielőtt a mélyébe mennénk…
Mára követhetetlenné vált, hogy ténylegesen mennyi érzékeny felhasználói adat is szivárgott ki, ami biztos, hogy gyakorlatilag nincs olyan, aki valamilyen szempontból ne lenne érintett. Elég csak beütni az email címünket a https://haveibeenpwned.com/ oldalon, máris látható, hogy milyen szolgáltatásokat pattintottak meg, amibe a megadott email címmel regisztráltunk és mikor, olyan részletekkel együtt, hogy az email címen kívül a címhez tartozó jelszó is kikerült-e, esetleg “csak” jelszó hash vagy annál sokkal több minden.

Egyre többen valamilyen jelszókezelő alkalmazás használatát javasolják amolyan silver bulletként, amikkel kapcsolatban azért lehet megfogalmazni kritikákat bőven. Ezeknek az alkalmazásoknak a lényege ugye az lenne, hogy egy mesterjelszót kelljen megjegyezni, majd ennek a megadásával a jelszókezelő az adott alkalmazásba kifillezi az ott megadott jelszómezőt. Egy könnyedebb téma, hogy ez miért messze nem a legjobb ötlet. Azt most ugorjuk át, hogy ezek a jelszókezelők is tartalmazhatnak komoly szoftveres sebezhetőségeket, aztán esetleg az a mesterjelszó mégsem védi annyira jól az összes többi jelszót, mint ahogyan azt logikusan gondolnánk. De hogy egy egyszerűbb trükkre gondoljunk, arra sincs 1000%-os garancia, hogy amikor valaki letölt egy 1Passwords-t vagy LastPass-t valamilyen eszközére, akkor a valódi alkalmazást tölti le és nem annak valamilyen megtévesztésig hasonló gonosz klónját egy eltérített oldalról. Ami pedig szerintünk a legkomolyabb rizikó: ha egy laptop vagy asztali gép esetén van egy azonosítatlan keylogger, hiába a jelszómenedzser, a mesterjelszó ellopásával a támadó gyakorlatilag viszi a boltot, az összes jelszót, amit a szolgáltatásra bíztunk. Ha pedig mobileszközről van szó, több esetben találkoztak már olyan esettel, amikor egy, háttérben futó alkalmazás az érintőképernyőt figyelte meg, ami tehát a keylogger mobileszköz-beli megfelelője, belegondolva pedig annál is rosszabb, mivel nehezebb azonosítani.

Amennyiben tartjuk magunkat az erős jelszó elvéhez, valamint ahhoz, hogy mindenhol más jelszót használjunk, mégis mit lehet tenni, ha biztonságban szeretnénk tudni a hozzáféréseinket, ugyanakkor ne kelljen reggelente bemagolni a különböző jelszavakat, de felirkálni se? Eddig nem igazán van normálisabb, széles közben alkalmazható stratégia, mint az, hogy gyakorlatilag az agyunkat használjuk hash-elésre, így a bonyolult jelszavakat is könnyedén meg tudjuk adni, mindenhol mást és mást. Azaz eléggé jó gyakorlat lehet a jelszóképzésre, ha van egy bizonyos, eleve eléggé bonyolult karaktersorozat, aminek a végére biggyesztünk egy olyan karaktersorozatot, amit egy általunk kitalált séma alapján képzünk. Példaként az adott szolgáltatásba való belépéshez szükséges jelszó végét a szolgáltatás mássalhangzóinak számából képezzünk valamilyen logika alapján. Azaz példaként a LinkedIN-be való belépéshez a matyómintás fix sztringünk végére kerül, hogy LnkdN, mivel 5 mássalhanzónk van, ezt felszorozzuk 7-tel, amire osztási szabály sincs, amit pedig kapunk, a végére írunk, így lesz LnkdN35. Mivel a 35 páratlan szám, még egy felkiáltójelet teszünk a végére. Igazából fejszámolás kérdése, hogy milyen cizellált szisztémát találunk ki rá, ami biztos, hogy mondjuk egy Beni19890623LnkdN35! jelszót már annyira nem egyszerű kitalálni az elterjedtebb módszerekkel, feltéve, ha a fix rész a mostani vagy néhai kutyánk neve is, hozzácsapva egy születési dátumot.

Ami a Troy Hunt és mások által feltárt és a nemrég alaposan kivesézett esetet illeti, egyfajta gyorstalpalót mutatunk be amellett, hogy mire lehetnek alkalmasak az érzékeny hozzáférési adatokat tartalmazó halmazok.

A kiszivárgott adathalmazokkal kapcsolatban eleve izgalmas kérdés, hogy vajon mennyi ideje lehetnek elérhetőek, mekkora kör számára, ami biztos, hogy a feketepiaci áruk az idő előrehaladtával csökken, míg idővel ingyenessé válik, ha úgy tetszik, amolyan közkincs lesz. A hagyományos keresőmotorokkal ilyen adathalmazokat keresve amire biztosan lehet számítani, hogy az első értelmes forrás a nagyon sokadik találat lesz, a másik pedig, hogy természetesen több olyan találat is elénk kerülhet, ami nem jelszóadatbázis, hanem konkrétan egy malware, amit nem a legbölcsebb letölteni virtuális gép, erős AV motor vegyvédelmi felszerelés nélkül, előre pedig nem látszik rajta, hogy malware lenne. Ahogy a múltkori előadáson elhangzott, lehetnek olyan paste-oldalakon fellelhető források, amik base64-ben kódolt szövegnek tűnnek, letöltve pedig éles víruskódként fognak működni.

Itt egy konkrét esetet mutatunk be, ami – úgy fest – nem harap. A https://publicdbhost.dmca.gripe/ oldalról letölthető az egyik LinkedIN-breach felhasználói név-jelszó adatbázisa, ami látszólag 2017. májusában került fel erre a helyre, arról viszont szó sincs, hogy a fájl 2017. májusi leakből származó adatokat tartalmazna, egyrészt valószínűleg régebbieket, másrészt láthatóan már egy “átdolgozott kiadásról” van szó, amire hamarosan visszatérek.

Ha egy műértő letölti a fájlt, kibontva egy 11 GB méretű plain textet kap, amit persze nem lehet megnyitni csak úgy. Ennek egyik oka, hogy az oprendszer eleve nem engedi, hogy például egy sima szöveg megnyitására alkalmas szövegszerkesztő rántsa magával az összes rendszererőforrást egy fájl megnyitásával, másrészt a szövegszerkesztőknél nyilván van egy ésszerű méretbeli korlát, aminél nagyobb fájlt nem lehet megnyitni. Az egészet hagyományos szövegként megnyitni természetesen nem is kell. Ha macOS-t vagy egy kényelmesebb linux disztrót használunk, nagyon gyorsan kereshetünk benne parancssori eszközökkel, Windows esetén pedig válasszunk olyan megoldást, amivel elfogadható sebességgel kezelhető a fájl, akár darabolás nélkül. Erre megfelelő lehet a PowerShell, a legelegánsabbak és leggyorsabbak mégis az olyan *nix-es környezetből ismert eszközök, mint amilyen a grep. A grep persze nem része a Windows CLI-nek, viszont a Cygwint vagy annak valamelyik kistestvérét használhatjuk minden további nélkül, ennek a részletezése viszont nem tárgya a posztnak.

A grep a hatalmas fájlban akár regexek alapján is nagyon gyorsan megtalálja, amit keresünk. Ha a fájl tartalmi felépítése nem lenne eleve ismert, akkor persze érdemes az első néhány sort megnézni előtte, amiből kiderül, hogy a fájl email-címeket tartalmaz, kettősponttal elválasztva a hozzá tartozó jelszó hash-sel.

Feltételezzük, hogy nem konkrét felhasználót keresünk, hanem arra vagyunk kíváncsiak, hogy a Lausanne-i Egyetem címével regisztrált felhasználók közt mennyien érintettek. A varázsszó:

grep -i “unli.ch” linkedin_all.txt

Ennek kimenetének egy részletét ezek az ábrán láthatjuk:

linkedin_adatszivargas

A -i paraméter miatt a grep nem finnyáskodik, azaz nem tesz különbséget kis- és nagybetűk közt, a felsorolásban jórészt, de nem kizárólag olyan címeket találunk, amikben szerepel, hogy unil.ch, ezt követi a hash, kettősponttal elválasztva.

Az első, ami eszébe jut annak, aki nem sok ilyet látott, hogy amellett, hogy ezek az adatok már eleve régiek, csak hasheket látunk, ami közvetlen belépésre tehát elvben nem alkalmasak. Ezzel kapcsolatban van néhány rossz hírünk.

A kiszivárgott adatokkal eleve probléma, hogy szinte biztosan élő email címeket tartalmaz, ami aranybánya a spammereknek. Másrészt igaz, hogy nem jelszót látunk, csak hash-t, aminek definíciószerűen az lenne a lényege, hogy ne lehessen belőle visszakövetkeztetni a jelszóra, ez a gyakorlatban nincs így.

Máig vannak olyan szolgáltatások, amik rossz fejlesztői gyakorlatot követve olyan hash-algoritmussal hash-elik a jelszavakat, amiket nem is ilyen célra találtak ki eredetileg, mint amilyen a jelszó hasheléshez egyszerűen gyenge MD5.

A LinkedIN-nél – elvben erős algoritmus használnak, mint a SHA-1 ezek viszont nem ún. salted-hash-ek.

Anélkül, hogy belemennénk a hash-elés matekjába-néprajzába, néhány gyakorlati szempontot mindenképp szem előtt kell tartani. Az egyik, hogy az MD5 már sok-sok évvel ezelőtt is annyira gyenge algoritmusnak számított hash-elésre, hogy egy átlagos gép néhány nap, esetleg néhány óra alatt visszaguberálta belőle a jelszót, a SHA-1 esetén pedig egy-egy számítási felhő pedig hasonlóan eléggé gyorsan végezhet.

Ennek egyik módja az ún. szivárványtáblák használata.

Hogy mit jelentenek az “xxx”-ek egy-másik után a konkrét példában? Jól mutatja, hogy mennyire valós is a veszély, hogy több forrás szerint ilyen-olyan hashkiller szolgáltatásokkal, mint amilyen például a https://hashkiller.co.uk/hash-min-max.aspx visszaguríthatók’ igen bonyolult jelszavak is, ha azok nem voltak alaposan sózva. A xxx jelentése a szövegfájlban, na, az aggodalomra ad okot, minimum. A Cyberforce-n megjelent forrás valószínűsíti, hogy ezek olyan jelszavak hash-lenyomata, amik megegyeznek olyan jelszavak hash-lenyomatával, ami a leggyakrabban használt jelszavak közé tartoznak, ilyen módon túl egyszerű lenne a n00boknak a jelszót kinyerniük belőle, a felkészültebbeknek viszont annál könnyebb. Vagy olyan jelszavak lenyomatai, amit az adott felhasználó más szolgáltatásban is használt, ergo egy korábbi adatszivárgással már össze lett vetve (!!). Alighanem a 2016-os LinkedIN-breach adatbázisában számtalan hash-t találnánk, mint amik a 2012-ben kerültek ki, tehát a felhasználó nem változtatott jelszót ez idő alatt.

Ahogy az ISACA előadásán elhangzott, 2017-ben 816 millió egyedi felhasználói adat szivárgott ki, pontosabban ennyit azonosítottak – nem feltétlenül csak hozzáférési adatok – 2018-ban 621 millió, amihez a mostani “Collection #1”, “Collection #2” megjelenésével együtt alighanem bátran hozzácsaphatunk akár fél-egy milliárdot is. Ahogy a január 9-ei előadáson és a Hacktivity-n előadott előadásban is volt róla szó, paste oldalakon, de a Github-on úgyszintén bőven akad forráskódokban publikusan hagyott API kulcs is, művészbejárót hagyva egy-egy szolgáltatásba.

Régi adat nem vén adat! A témát számos vonatkozásban lehetne még ízlelgetni, ha hirtelen úgy gondolnánk, hogy egy több éves adatbázissal akkor sem lehet mit kezdeni, ha abban plain textben tárolt felhasználói név-jelszó párosok vannak, mint a 000hosting-ot ért támadás eredményeként kikerült gyűjtemény esetén, mivel a felhasználó azóta már úgyis megváltoztatta a jelszavát, valószínűbb, hogy nem. A mezei felhasználók alapvető hozzáállása, hogy ha történt egy adatszivárgás, oldják meg az informatikusok vagy a szolgáltató, ami régen rossz. Ritkább az olyan eset, amikor a szolgáltató jelszóváltoztatásra kényszeríti a felhasználót, a breach-et vagy bejelentik egyáltalán vagy sem, de a felhasználó nem változtat jelszót. Már csak azért sem, mivel már-már érzéketlenné vált arra a hírre, hogy hetente történik valamilyen adatszivárgás. A biztonságtudatosabb felhasználó is emberből van, így ő sem fog feltétlenül jelszót változtatni, amik, ahogyan korábban utaltunk rá, ráadásul gyakran több szolgáltatásban azonosak. így a több évvel ezelőtti gyűjtemények vélhetőleg még mindig használható belépési adatokat tartalmaznak.

Szinte kínos elismételni, hogy mennyire rossz hozzáállás az, ha valaki úgy gondolja, hogy nem lehet célpont, ezért mondjuk úgy, lazára veszi a figurát. Rendszeresen jelennek meg olyan botok, amik például régen frissített CMS-eket támadnak meg és tesznek zombivá, botnethálózat tagjává téve őket. Nemrég egy WordPress core-t érintő sebezhetőség lényegében már ismert jelszavakkal próbált belépkedni, amint pedig sikerült neki, olyan módon módosította a blogmotor kódját, hogy az más WordPress-oldalakat fertőzzön meg.

Hogy az adatszivárgások hogyan észlelhetők a leghamarabb, már-már elfogadható időn belül, egy későbbi posztban beszámolunk, olyan részletekre nem tértünk ki, hogy mi az, amit semmiképp ne tegyünk, ha nyugodtan szeretnénk aludni. Az index.hu valamelyik cikkében a szerző egy korábbi adatszivárgás kapcsán még meg is írta, hogy az adatok hitelességét úgy ellenőrizték, hogy beléptek az érintett szolgáltatásba. Az ilyen adatokon jól vizsgálható több minden a felhasználói magatartással kapcsolatban az „öreg jelszó nem vén jelszó” elven túl. Ha valakinek egy belépési adat tudomására jut, önmagában azzal nem sérti meg a törvényt. Ha viszont annyira ostoba, hogy ellenőrzésként belép valaki más nevében egy szolgáltatásba, így információkhoz juthat, amihez semmi köze, azonnal. Arról nem is beszélve, hogy az egyre kifinomultabb szolgáltatások kiszúrják, ha szokatlan helyről történik bejelentkezés helyes felhasználói név-jelszó párossal és zárolják a fiókot, amit aztán a tényleges tulajdonosa vagy fel tud oldani ésszerű idő alatt vagy sem.

kép: CSOOnline

2018: adatszivárgások, dráguló 0 dayek, átértékelődő tudás

Security-German-Parliament-Building-1044456572-wVisszatekintő és egyben beharangozó poszt 2 in 1. Ha mindenképp mondani kellene valamit azzal kapcsolatban, hogy miről is szólt az elmúlt egy év az információbiztonság területén és csak egyvalamit lehetne kiemelni, alighanem az adatszivárgás egyre félelmetesebb kiterjedése lenne az. Aminek a hatásai ráadásul túlnyúlnak a korábbi adatszivárgási esetek hatásain.

Amikor a mainstream sajtóban is lehet olvasni egy-egy nagyobb adatszivárgásról, nem csoda, ha az olvasó simán csak gördít tovább, annyi fut át a fején, hogy az előző héten 100 millió személyes adatot loptak el innen, most 200 milliót amonnan, a többi meg kit érdekel, egyébként is foglalkozzanak vele az informatikusok. Ez már önmagában eléggé nagy probléma, ugyanis más hozzáállással a felhasználók ilyenkor legalább a jelszavukat változtatnák meg, de a közösségi webes szolgáltatások többsége ezt nem kényszeríti a felhasználóktól.

Ráadásul semmi meglepő nincs abban, hogy egy-egy tényleges adatszivárgás és annak széles körben nyilvánosságra kerülése közt akár évek is eltelhetnek, mivel a lopott adatokat sokszor először a feketepiacon kínálják eladásra.

És ugye vannak azok az esetek, amikor egy többé-kevésbé jól behatárolható kör információi kerülnek ki, konkrétabban politikusok és más, vezető pozícióban lévő személyek elérhetőségei, személyes fotói, levelezésük egy része és talán jobb nem tudni, hogy ezen kívül még mi. Ezt is el lehetne intézni egy vállrándítással, hiszen egyszerűsített megközelítésben az, hogy kikerült pár email-cím, mobilszám és üzenetváltás, nem tűnik különösebben érzékeny információnak. A dermesztő az, hogy valóban semmiről nem lehet azt mondani, hogy biztosan nem érzékeny információ.

Ha nagyon vissza szeretnék menni Ádámig-Éváig, akkor érdemes fellapozni a social engineering és a kormányzati hátterű HUMINT irodalmát, amiben azt találjuk, hogy egy támadó minél többet tud valakiről, annál inkább képes rá, hogy esetleg megszemélyesítse vagy közeli informális kapcsolatba kerüljön az áldozat egy közeli ismerősével, akiből megfelelő műfogásokkal viszont már igenis érzékeny információkat húzhat ki. Ennek a hatása pedig bizonyos esetekben nagyságrendekkel nagyobb, mint amennyire először tűnik. Ezekkel a módszerekkel hírszerzők, ha meg elhárítók kerülhetnek közeli kapcsolatba diplomatákkal vagy olyanokkal, akik érzékony adatokhoz férhetnek hozzá, ami túl bonyolultnak, na meg paranoidnak tűnik ahhoz, hogy igaz legyen, a szakirodalom számára viszont a jelenség abszolút nem új.

Mielőtt a friss német adatszivárgási botrányra rátérnénk, érdemes megtorpanni egy percre és utánaolvasni annak, hogy valóban ennyire rafináltak-e azok, akik számára fontos, hogy érzékeny információhoz jussanak és ezen keresztül egy-egy döntéshozót indirekt módon befolyásoljanak is. A New York Times néhány hónappal ezelőtt hozta a hírt, ami szerint Donald Trumpot máig nem sikerült hozzászoktatni ahhoz, hogy kellően biztonságos csatornákat használjon.

A cikk kiemeli, ami kevesek számára egyáltalán nem új, nagyon sokak számára viszont bőven kémfilmbe illő lehet, csak éppen maga a jelenség unalmasabb annál. Történetesen arról van szó, hogy ha egy támadó aktor le tudja hallgatni, hogy egy célszemély az informális kommunikációja során, akár a magánbeszélgetéseiben általában milyen gondolati sémák jelennek meg, akkor ezt tovább fejve rendkívül értékes információkhoz jutnak a támadók azzal kapcsolatban, hogy az adott vezetőt például milyen érvek mentén lehet meggyőzni, milyen húrokat kell nála megpendíteni ahhoz, hogy egy álláspontra helyezkedjen olyannal, akivel egyébként nem tette volna, egyszóval egyfajta térképhez jutnak azzal kapcsolatban, hogy a célszemély hogyan manipulálható akár a tömegkommunikáción keresztül, akár egy-egy diplomáciai esemény alkalmával. Ha ez történetesen a világ egyik legbefolyásosabb államának vezetőjével történik, joggal ad alapot aggodalomra.

Ami a friss német adatszivárgást illeti, mondhatnánk: változatok pepitában és tényleg. Az ilyen incidensek kivizsgálását ráadásul tovább bonyolítja, hogy ha a támadók tehetik, miért is ne tennék, hogy sokkal több információt lopnak el, valójában viszont csak néhány személlyel kapcsolatos információkra kíváncsiak ténylegesen, azaz kik a tényleges célpontok.

Szó sincs róla, hogy régen minden jobb volt, aztán mostanra ide jutott a világ, sokkal inkább arról, hogy összehasonlíthatatlanul nagyobb és átláthatatlanabb a támadási felület, ami érhet például egy politikust.

Visszatérve a több százmillió felhasználót érintő adatszivárgásokra, ahogy említettük, az ilyen datasetek először a feketepiacon landolnak, majd jóval később válnak széles körben elérhetővé, mondjuk akkor, amikor már gyakorlatilag minden érdekelt fél számára úgyis elérhetőek, még a dark web mélyére sem kell feltétlenül alászállni hozzá.

Érdekes áthallás, hogy éppen most a bejelentett, 0 day sebezhetőségekért fizetett összegek hirtelen többszörösére emelkedtek, amik mutatják egyrészt a különböző platformok kitettségét leginkább, nem feltétlenül például a bonyolultságukat. A bug bounty programok egyre nagyobb és nagyobb összegeket fizetnek, viszont több esetben joggal feltételezhettük, hogy ugyanazt a sebezhetőséget egymástól függetlenül többen is megtalálták, ki is használhatták, el is adhatták a feketepiacon egészen addig, amíg egy etikus hekker be nem jelentette. Ez nem az a terület, ahol megengedhetnénk azt a luxust, hogy gyenge lábakon álló feltételezésekbe bocsátkozzunk, például arra, hogy a sebezhetőség felfedezője esetleg előzetesen ki is használta azt. Viszont találni példát a neten olyan esetre, amikor valaki bejelentett egy sebezhetőséget, nagyon hangsúlyozta, hogy de bizony azt tényleg eskübecsszó’ nem használta ki, aztán kiderült, hogy dehogy is nem. Mindenki elhelyezhető egy képzeletbeli vonalzón, aminek egyik végén a homo economicus van, amelyik a maximális profitot szeretné viszontlátni mindenből, függetlenül például annak etikusságától, a vonalzó másik végén pedig a teljesen altruista ember.

Csak a nyilvánosságra került információkból lehetne nagyon óvatos becslést mondani azzal kapcsolatban, hogy mennyi olyan nulladik napi sebezhetőség lappanghat az olcsó mobiloktól kezdve egészen a pénzintézetek kritikus fontosságú informatikai eszközeiig. Erre nagyon jó példa az NSA néhány évvel ezelőtt kikerült vagy kiszivárogtatott EternalBlue exploitja, ami rekord sokáig lappangott észrevétlenül és alig volt olyan eszköz, amit ne érintett volna, de lehetne még hozni példákat matuzsálemi korú sebezhetőségekre bőven.

Az, hogy mennyi sebezhetőséget jelentenek, majd javítanak is, világos, ahogyan az is, hogy az adott sebezhetőség egy adott szolgáltatásban mennyi ideje lehetett kihasználható. Nem egy esetben viszont kiderült, hogy a sebezhetőséget már ki is használták korábban, éljünk azzal a feltételezéssel, hogy nem éppen az, aki a hibát jelentette, ami azért bárki számára izgalmas pillanatokat okoznak a jövőre nézve.

A blogon korábban már elmélkedtünk róla, hogy magukról a nyomozati módszerekről miért nem nagyon beszélnek a rendvédelmi és titkosszolgálati szervek, teljesen más alapon nyugszik, de például egy-egy kitűnő stratégiát vagy technikát alkalmazó online marketinges vagy éppen background checkinget végző HR-es sem fog mindent elmondani arról, amit a munkájában használ, legfeljebb nagyon felületesen. Shared-intelligence? Létezik is, meg nem is.

Igaz, például a Redditen a vicces nevű, ámde annál komolyabb RBI gyakran gyorsabban megold minimális információk alapján egy-egy bűnügyet, mint maga a hatóság, holott “csak” lelkes önkéntesek használják az RBI-t.

Viszont annak is nagyon sok racionális, érthető oka lehet, hogy egy-egy terület specialistája miért nem tesz ki a kirakatba egy-egy módszert, csak magát a kért információt adja át. Hogy ne is hozzunk bonyolultabb példát, nincs benne semmi meglepő, ha valaki elgondolkozik rajta, hogy mekkora értékvesztéssel jár, ha megoszt valami olyan ismereteket szélesebb körben, ami egyébként csak nagyon kevesek számára ismert. Azon pedig aztán senki se lepődjön meg, ha az átadott ismerettel, azok saját területén való alkalmazásával majd tényleg pofátlan összegeket keres más. Hogy messzebbre ne is menjünk, az egyik legnehezebb meghúzni az értelmes határt azzal kapcsolatban, hogy mennyire jár értékvesztéssel, ha megosztunk valamit, ami éppen attól lesz kevésbé értékes, mert többen tudnak róla. Arról a bosszantó jelenségről meg aztán nem is beszélve, hogy sokszor akár tényfeltáró újságírók, akár különböző cégek konkurrencia figyelésére szakosodott alkalmazottak ezeket a módszereket úgy használják, mintha maguknak kaparták volna ki a gesztenyét, amivel még nem is lenne különösebb probléma. Azzal viszont elvi probléma igenis adódik, hogy például a data journalism területén szakértőként dolgozó data scientistek töredék összeget nem látnak egy kiadó áttételesen szerzett nyereségéből, de valószínűbb, hogy különösebben nem is érdekli őket. Business intelligence? Open-source intelligence? Ipari kémkedés? Eléggé komoly fogalomzavar volt mindig is ezekkel a fogalmakkal kapcsolatban, amit viszont Vadász Pál egészen friss PhD-je próbál helyre tenni (A szemantikus keresés módszerei és alkalmazási lehetőségei a védelmi szférában, a közigazgatásban, illetve a gazdasági életben), megjegyzem, egészen jól.

Summázva, alighanem nem légből kapott kijelenteni, hogy a keménykötésű etikus hekkerek sejthetően éppen a leginkább juicy sebezhetőségek egy részét ugyanúgy nem hozzák nyilvánosságra, mint ahogy nem hoz minden módszert nyilvánosságra egy OSINT-szaki sem, főleg akkor, ha olyan helyzetben van, hogy máshol ugyanazt a szaktudást összehasonlíthatatlanul jobban forintosíthatná. Az más kérdés, hogy ennek a piacát eleve nem könnyű megtalálni, ha pedig csak Magyarországban gondolkozunk, hírek terén nem vagyunk a fact-checking, cégek esetén a céges screening, fontos pozícióba jelölt pályázók esetén pedig a background checking őshazája.

Mindegy is, hogy nulladik napi sebezhetőségről, egy-egy keresési technikáról vagy éppen arról van szó, nincs ebben semmi meglepő, ahogy például teljesen alapvető, hogy egy-egy kiskereskedő sem fogja elárulni, hogy ő honnan szerez árut. Hogy tovább menjek, Hippokratesz eredeti esküszövege is tartalmaz egy azzal kapcsolatos passzust, hogy a szakmán belül a szakmai információk megoszthatók, viszont kívülállóknak nem.

“To hold my teacher in this art equal to my own parents; to make him partner in my livelihood; when he is in need of money to share mine with him; to consider his family as my own brothers, and to teach them this art, if they want to learn it, without fee or indenture; to impart precept, oral instruction, and all other instruction to my own sons, the sons of my teacher, and to indentured pupils who have taken the physician’s oath, but to nobody else.

“oktatom őket ebben a tudományban, ha erre szentelik magukat, mégpedig díjtalanul; továbbá az orvosi tudományt áthagyományozom fiaimra és azokra, akik az orvosi esküt leteszik, másokra azonban nem.

A tudás mindenkié? Ugye, már az ókorban sem volt egyértelműen megválaszolható kérdés. A cikk folytatásában az OSINT egy specializált területét járjuk kicsit körül, amit jobb magyar nyelvű terminus híján nevezhetünk CTI-net a Cyber Threat Intelligence után. Az idei Hacktivity egyik legjobb, – ha nem a legjobb – előadása éppen erről szólt: hogyan lehet jól kihegyezett eszközökkel az adatszivárgásokat időben észlelni, ezeket a megfelelő helyre hogyan érdemes reportálni és hogyan semmiképp sem. Addig is, ízelítő videó Pystemon-PasteHunter-AIL témában erre.

kép: Wired

A DMARC, mint a hamisított levelek mérésének lehetséges eszköze

levelszemetMióta email létezik, létezik levélszemét is, a spam pedig nem meglepő módon egyidős a spamek ellen vívott küzdelemmel.

Már filozófiájukban rendkívül eltérőek a különböző levelezőrendszerek azzal kapcsolatban, hogy a spameket hogyan kezeljék, a paletta pedig egészen elképesztően széles. Van olyan levelezőrendszer, ami aztán tényleg mindent beenged, hacsak nem open relay-en keresztül érkezik, van, amelyik végigvizsgál több, hatalmas méretű rDNSBL  alapú adatbázist, mint amilyen a http://multirbl.valli.org/ többek közt az után kutatva, hogy a fejlécben szereplő hosztnevek és címek valamelyike összefüggésbe hozható-e esetleg valamilyen spamkampánnyal vagy botnethálózattal. A megoldás máig a Spamassassin egyik legfontosabb eleme.

Persze a jó spamfilter a levél tartalmát és fejlécét együttesen elemzi annak eldöntésére, hogy egy levél milyen valószínűséggel spam, gyakorlatilag minden rendszer lehetőséget ad a rendszer tanítására, azaz, hogy a felhasználó kézileg jelölhessen meg leveleket spamként vagy spambe került legitim leveleket legitim levélként. Az ilyen tanulórendszerek egyik legegyszerűbben megérthető típusa a Bayes-valószínűségen illetve a Bayes-féle valószínűségi hálókon alapul.

Az előbbi lényegét a következőképp lehetne szemléltetni nagyon egyszerűsítve: ha egy levelezőrendszerre érkezik 1000 olyan legitim levél, amiben nem szerepel a Viagra kifejezés, emellett másik 1000 levél, amikben szerepel a Viagra kifejezés, de ezek közül 950 spamként lett a felhasználók által megjelölve, a háló úgymond megtanulja ezt, így a későbbiekben érkező levelekben ha szerepel a Viagra kifejezés, az már eleve a spambe fog érkezni, mivel a spamszűrő annyira nagy valószínűséggel találja spamnek (spam score).

Vannak levelezőrendszerek, így a Google levelezőszolgáltatása és annak vállalati verziója, ami szinte teljes titokba tartja, hogy milyen logikák alapján szűrik a spamet. A transzparencia hiánya elsőre nem tűnik túl kedvesnek, de éppen emiatt a spammerek kevésbé tudják kijátszani a rendszert. Kevéssé ismert, de a Gmail nem a Google fejlesztése, eredetileg a Postini felvásárlásával került a Google-höz és lett Gmail, arra pedig mindenki emlékszik, hogy milyen hangzatos kritikákat kapott a Google amiatt, hogy az összes levél tartalmát „olvassa”. Szigorúan idézőjelbe olvassa. Mert annak kevésbé lett volna hírértéke a sajtóban, hogy a levelek tartalmi elemzése gépi úton történik, statisztikai célok érdekében. Többek közt ennek köszönhető, hogy a Gmail spamszűrője relatív ritkán téved. Olyannyira, hogy a SpamAssassin alighanem nem kegyelmezne egy olyan levélnek, aminek a törzsében többször is szerepel a Viagra kifejezés, míg a Gmail-nél vagy G Suite-nál alighanem nem akadna el olyan esetben, amikor a címzett vagy a feladó történetesen gyógyszerész vagy rendszeresen leveleznek olyan témában, ami alapján valószínűsíthető, hogy a levél nem spam.
Ami még izgalmasabb kérdés, hogy mennyien, kik, honnan küldenek spamet a mi nevünkben, a mi email címünkkel vagy csak a mi domainünkről? Ez a spamvédelem kevésbé ismert oldala. Egy egyszerű beállítással megoldható, ám a mai napig nem terjedt el kellően.

Jól ismert, hogy az email szabványai nem írják elő, hogy annak, ami megjelenik a címzett mezőben, egyeznie kell például a levelezőrendszer által azonosított felhasználó email-címével, de éppenséggel lehet üres is. Röviden: az email önmagában gyakorlatilag tetszőlegesen hamisítható, más kérdés, hogy a hosszú fejléc alapján ez tipikusan azonnal kiderül.

Ismerős lehet a levelezőrendszerek azon lehetősége, hogy másik címmel, normális esetben a sajátunkkal küldhetünk emailt anélkül, hogy az éppen használt levelezőrendszerből ki kellene lépni, sőt, ettől az email még mindig szabályos és bizonyíthatóan legitim marad normális beállítás esetén. Gondoljunk csak a Gmail, Outlook, Yahoo behalf of lehetőségére. A címzett oldalán vagy jelzi vagy sem, hogy a feladó kényelemből esetleg a céges postafiókból küldött levelet, de a privát címével, esetleg fordítva. Az ilyen leveleket tehát nem fogja meg a spamfilter.

Ugyanakkor előfordulhat, hogy a küldő rendszer, ami behalf of módon küldene emailt, egyszerűen nincs erre normálisan felkészítve, a fogadó rendszer nincs illedelmesen konfigurálva, aminek eredményeként a levél a levélszemétbe került. Ahogyan az sem zárható ki, hogy valaki ténylegesen létező email címet hamisít spamek küldéséhez, ekkor a spamfilter jó esetben észlel. Mégis, kik a küldők, honnan küldhetik a leveleket, esetleg mennyi olyan levelet küldtünk, amit tévesen azonosított spamként a címzett rendszere? Erre kínál megoldást a DMARC.

A technológia lényege, hogy a levelezőrendszer, tipikusan egy napos időközönként szolgáltat információt arról XML-ben egy külső szolgáltatónak, hogy a beérkező levelek közül mennyi volt hamisított levél az SPF-szabály vagy a DKIM-szignatúra alapján. Valamint az adott levelezőrendszerekről más levelezőrendszerek küldenek hasonló jelentést.

Nagyon fontos megjegyezni, hogy a DMARC reportot értelmezni kell, miután alaposan megértettük a működését. Azaz például hiába látszik a reportban, hogy a levél az SPF vagy a DKIM ellenőrzésen, esetleg mindkettőn elbukott, a címzett nem biztos, hogy ettől spambe tette, ugyan nagy a valószínűsége, hogy igen. Másrészt a többihez hasonlóan itt is egy (E)DNS alapú ellenőrzésről van szó, annak minden hátrányával együtt. Azaz például ha a címzett az SPF-et és a DKIM-et nem tudja eléggé gyorsan kiértékelni a DNS lassúsága miatt, tipikusan akkor, ha ha az SPF kiértékelése túl sok túl sok névfeloldást igényelne, akkor a címzett úgy tekinti, hogy az email nem valid, aztán vagy spambe teszi vagy sem.

dmarc-rekord-email-hitelesites.png

Mi kell mindehhez? A netacademia.net domain példáján keresztül érthetőbb lesz:

A _dmarc.netacademia.net ben rögzített érték a következő:

v=DMARC1; p=none; rua=mailto:ad6221eb84ab177@rep.dmarcanalyzer.com; ruf=mailto:ad6221eb84ab177@for.dmarcanalyzer.com; sp=none; fo=1;”

a v utáni érték jelzi, hogy a DMARC hanyas verziójáról van szó, a p, mint policy azt közli a címzettel, hogy ha a levelet nem találja legitimnek, jegyezze fel (none), de ne tegyen vele mást, esetleg tegye karanténba (quarantaine) vagy dobja el (reject), a rua utáni érték azt az email címet tartalmazza, amire XML formátumban továbbítódnak a címzettek visszajelzései összegezve, az sp azt, hogy a domain alá tartozó domainekre is ez a szabály vonatkozzon-e, a fo-nál pedig jelölhetjük, hogy csak az SPF-problémát, csak a DKIM-problémát vagy mindkettőt tegye a reportba, mint fals levél. Ezen kívül beállíthatók további paraméterek, amik hiányában a hozzájuk tartozó alapértelmezett érték adott. Ilyen például a ri, azaz reporting interval, ami alapértelmezés szerint egy nap.

dmarc-beallitas-1

dmarc-beallitas-2

Nem mélyedünk el a DMARC beállításával kapcsolatos best practice-be, például abba, hogy hiába tűnik jó ötletnek policyként a none helyett szigorúbbat megadni, ha valahol hiba csúszik az email authentikációba, falspozitívként nyelődhet el egy egyébként teljesen legitim levél, viszont a none is igen erős jelzés a spamszűrők felé.

Ezen kívül megtekinthetjük, hogy más levelezőrendszerek mennyi spamet jelentettek valamint a mi nevükben mennyi hamisított levelet próbáltak küldeni.

A mailhosting fortélyairól, az EDNS működéséről hamarosan közérthető, mégis szakszerű sorozatokat találhattok a Netacademia Tudástárban a slusszkulcs meghívókód megadása után.

Kép: Securelist, Moonmail

AI: rosszul elsülő tudománykommunikáció, mint lehetséges globális fenyegetés

moralis-dontesekKorábban mér érintettük a témát, amit nevezhetnénk akár az év slágerének is az AI-kutatás területén, nevezetesen, hogy hogyan hogyan kellene etikusan viselkedniük a gépeknek kritikus helyzetekben, amiről mindenkinek az olyan esemény jut eszébe, mint amikor az önvezető autónak egy elkerülhetetlen ütközéskor két tragikus kimenetelű alternatíva közt kell választania.

Javasoltuk is, hogy érdemes játszani az MIT Moral Machine-nel ami, mondjuk úgy, kellemetlenebbnél kellemetlenebb dilemmákat dob a felhasználó elé. Mit tenne ha… sok-sok scenarioval. Nem lehet azt mondani, hogy például egy játékelméleti megközelítésű döntés vagy éppen egy társadalmi konszenzust tükröző döntés jobb olyan esetben, amikor dönteni kell arról, hogy az önvezető jármű helyében a járdán lévő gyalogost csapnánk el megmentve az utast vagy éppen inkább mentsük meg az utast, amibe aztán egy frontális ütközésnél a vele szembe jövő kocsi utasa is belehal például. Az abszolút klasszikus pedig, hogy melyiket kevésbé elhibázott döntés elcsapni? A nagyit vagy a kisgyereket?

A cikk nem ma jelent meg ugyan, de hosszú időn keresztül ott volt a headline-ban a MIT Tech Review oldalán, ízekre szedve azt az igen komoly Nature-cikket, amiben kellően nagy mintán a kutatók alaposan kielemezték, hogy különböző döntési szituációkban általában hogyan döntenének az emberek a legkülönbözőbb szempontok szerint, mint amilyen az életkor, a kulturális hovatartozás, az iskolázottság és még sok-sok információ, amiről manapság nem píszí írni, viszont szerencsére ez a hatás a tudomány legmagasabb szintű fórumait még nem érte el.
Szinte mindenben találtak összefüggést, például az hogy az individualista és kollektivista kultúrákból érkező válaszadók máshogy fognak dönteni, előre is sejthető volt, a cikkből kiderült, hogy bizony több előítéletünk sok esetben alkalmazható annak becslésére, hogy egy-egy kritikus helyzetben milyen döntést hozna nagyobb valószínűséggel egy amerikai és egy japán.
Ha valakinek van Nature-előfizetése vagy néhány dollárja a cikk eredetijét innen töltheti le, alternatívaként ezen a linken, a tudomány torrentjének is nevezett Sci-Hubon keresztül.

Persze még egy Nature-cikket is lehet kritizálni, nem feladatunk állást foglalni például azzal kapcsolatban, hogy bizonyos következtetéseket mennyire befolyásoltak a kutatók előzetes feltételezései, kulturális háttere és így tovább, van itt valami, ami még inkább elgondolkoztató.

Elfogadhatjuk alaptézisként, hogy szinte mindig jobb, ha van információ, ebből formálható, kutatást előlendítő tudás, mint ha nincs. Azaz a tudomány nem lehet válogatós – pontosabban nem szabadna annak lennie – olyan szempontból, hogy valamivel kapcsolatban végez kutatást, amit majd közöl, megint mással kapcsolatban pedig polkorrektség okán nem. Mellékszálként itt megjegyezzük, a társadalomtudományok terén a legmagasabb szinteken sem ritkák a határt alig ismerő szakmai viták, nemrég például amerikai filozófusok borítékolt kulát küldtek egymásnak postán.

Ami felmerülhet a MIT Moral Machine-nel kapcsolatos információk nyilvánosságra kerülésével kapcsolatban amellett, hogy nyilván lesz még hasonló témájú cikk bőven, hogy a tudományos publikációk, ahogyan az lenni szokott szépen lecsorognak a magyarázó szakmai oldalakon át a mainstreamen át a news outletekig, majd a bulvárig, ilyen módon természetesen áttételes hatást fejtenek ki a emberek tömegeinek gondolkodására.

Ezen sorok írója konkrétan megkapta már párszor a kérdést, hogy akkor most ténylegesen melyik a legelborultabb kísérlet a magatartástudományokban és rokon területein, amit valaha elvégeztek. Nos, komolyan nem tudjuk, amik nyilvánosságra kerültek, azok közül is vannak eléggé erősek, a legelborultabbak pedig nyilván nem akadémiai kutatások voltak, aztán a benne részt vevő katonák vagy túlélték vagy sem.

Abból az alaptézisből indultunk ki, hogy ritka kivétellel mindig jobb, ha információnk van valamiről, mint ha nincs, a mesterséges intelligencia és annak morális- valamint egyéb társadalmi vonatkozásaival kapcsolatban is így van, ilyen irányú kutatásokra szükség van. Viszont még a fenti kutatás eredményei is olyanok, hogy ha azok eljutnak a nagyközönséghez, természetesen lebutított formában, a tartalomfogyasztók ugyancsak kultúrától, iskolázottságtól, helyi normáktól függően teljesen máshogy értelmezhetik azt. Képzeljünk el egy olyan, adott kultúrában átlagosként tipizálható, átlagos műveltséggel és kritikai gondolkodással rendelkező tartalomfogyasztót, aki rendszeresen találkozik a legkülönbözőbb hírekkel. Ha egy ilyen kutatás kivonatában azt olvassa, hogy abba a kultúrába tartozók, aminek ő is része, teljesen máshogy döntene, mint mondjuk a pirézek, azt megjegyzi és úgy-amennyire tényszerű információként, ami tehát nagyon fontos, hogy nem kapcsol hozzá semmilyen értékítéletet! Abban az esetben viszont, ha például a pirézek olvassák a cikk kivonatát vagy úgy egyáltalán bárki, akinek az olvasási kultúrája, kritikai gondolkodással kapcsolatos mindsetje jelentősen eltérő, amit olvasnak, ahhoz szükségszerűen valamilyen értékítéletet fognak kapcsolni. Egyszerűbben fogalmazva a tudománykommunikáció bármennyire is elővigyázatos, ismét megtörténhet, ami megtörtént már a legtöbbet kritizált szociálpszichológiai kísérletek fénykorában bő fél évszázaddal ezelőtt, a nyilvánosságra került kutatások minden bizonnyal befolyásolták az emberek egymásról alkotott képét. Megjegyzendő, a kutatásetikailag minimum megkérdőjelezhető kísérletek közt is kiúgró az elborult magatartástudományi kísérletek aránya, ami attól, hogy etikailag támadható, összességében nagyon sokat adott a világnak, erről egy parádés lista itt található.

Amennyiben különböző kultúrák tagjai rendszeresen találkoznak olyan információkkal az AI-etika kísérleteknek köszönhetően, amit nem a helyén kezelnek, ráadásul ezzel párhuzamosan jönnek az önvezető kocsik, önvezető tömegközelekedési eszközök és úgy egyáltalán az AI egyre több kritikus területen, ahol nyilván előfordulnak majd balesetek, akkor nem zárható ki, hogy sosem látott szakadás, ellentét alakul ki közösség és közösség szerte a világon, ami olyan mértékig eszkalálódhat, amilyenre még sosem volt példa, ennek megfelelően nincs is rá krízisforgatókönyv. Ne feltétlenül olyan ellentétre gondoljunk, mint amikor a Ku-Klux-Klán tagjai és a feketék ölték egymást, a csendben kialakuló, majd fennmaradó ellentétek is lehetnek hasonló pusztítóak vagy durvábbak. Jól jegyezzük meg: a civilizáció történetében megjelent egy rakás ideológia és annak ellen-ideológiája, ami viszonylag könnyen vizsgálható volt a kutatás számára, ennek megfelelően mindenféle izmusok’ ellen valamilyen eszközzel fel lehetett lépni civil és politikai téren egyaránt, aztán megfékezni azokat. Csakhogy az információáramlásnak nem csak a sebessége, a jellege is olyan módon változott meg, hogy a veszélyes szerveződések időben történő azonosítása és a megfelelő ellenlépések megtétele is merőben eltérő módszereket és koncepciókat igényel a kutatók, a döntéshozók és minden érintett részéről. Abban pedig csak reménykedni lehet, hogy a kutatók és azok, akiknek legalább nagyjából szakmai alapokon kellene szakpolitikai döntéseket hozniuk, eléggé felkészültek lesznek. Ebben viszont ne legyünk olyan biztosak, egy olyan világban, ahol a bolygó túloldaláról képesek befolyásolni egy másik állam népszavazásának kimenetelét, lényegében a közösségi weben alkalmazott pszichológiai hadviselés módszereivel.

kulturalis-kulonbsegek

Blogunkon már nem először jósoltunk armageddont, ahol rendszerint a legrosszabb forgatókönyvekkel játszottunk el, ami a technikai vívmányok civilizációra gyakorolt hatását vizsgálja. Vegyük észre, hogy nem csak az egyénnek kell megbarátkoznia a gondolattal, hogy teljesen más módon kell majd élnie az életét egy olyan korban, amikor a magánszféra, mint social norm, teljesen átértelmeződik, hanem közösségbe tartozó ember tagjaként is. Még a legelővigyázatosabb tudománykommunikáció is áttételesen, előítéletek alakításán keresztül eredményezhet olyan labilitást globális szinten, ami a terrorizmusnak, bizonyos autokratikusan működő államoknak kedvez, amik aztán ezt ki is használják, míg a legegyszerűbb eset, hogy kultúrák közti az egyetértés hiánya és a fokozódó értékrendbeli eltérés konfliktusok előszobája lesz.

Az AI-ról, komolyan II: a lexikális tudás felértékelődése a jövő döntéseiben

microsoft_power_biParadoxonnak tűnik? Nem az. Magyarázzuk. Alighanem már azzal kapcsolatban is csak nagyon óvatos becslést lehetne adni, hogy mennyi olyan, komplett, gyakorlatilag minden üzleti igény kielégítésére fejlesztett, tág értelembe vett ERP megoldás van, ami fut a felhőben, a legszárazabb adatsorokból is képes színes-szagos vizualizált chartokat készíteni, épphogy kávét nem főz, olyan mértékben segíti a döntéselőkészítést és döntéshozást, hogy azoknak akik a döntéseket meghozzák, csak azzal kell foglalkozniuk, hogy biztosan a legmegfelelőbb információkkal tömték-e meg a szolgáltatást, megfelelő módon.

Ezek közül nem emelnénk ki sokat, a Microsoft és az Atlassian azért vált piacvezetővé komplett megoldásoknak a piacán, mert a legjobban sikerült eltalálniuk, hogy a különálló szolgáltatásaik hogyan drótozhatók össze a legjobban. Megoldást kínálnak az ilyen szoftverrendszerek használatában jártas és kevésbé jártas felhasználóknak egyaránt, néha tényleg a bőség zavara lehet a benyomásunk. Példaként egy feladat megoldásának bonyolultságától, jellegétől függően szükség lehet a MS Projects bevetésére, de nagyon könnyen előfordulhat, hogy a feladat valójában a sokkal egyszerűbb – na meg kevésbé ijesztő – Microsoft Plannerrel is megoldható.

Azt is mondhatnánk, hogy szomorú, de annyira igaz, miszerint az adat gyakorlatilag onnantól ér valamit, hogy vizualizálva van vagy legalábbis minél gyorsabb megérteni. Nincs ebben semmi meglepő, az ember agya ugyan magas szintű absztrakciókra képes, mégis sokkal könnyebb, ha valamilyen eszközzel megjelenítetük a láthatatlant, az adat vizualizálva nyer értelmet ténylegesen sokak számára.

Nem tudni, hogy mennyire lehet komolyan venni azt a kutatást, amiben igazolták, hogy nagyon hasonló tudománymetriai jellemzőkkel rendelkező cikkeket annál kevésbé hivatkoznak más kutatók cikkei, minél több matematika összefüggést, konkrétabban pedig képletet tartalmaznak, holott a kutatók körében ezek készségszintű értelmezése mindennapos gyakorlat. Szubjektív, de ez még bocsánatosabb lehet az olyan tudományterületen, ahol köztudottan szeretik a minél pontosabb ábrázolást, a számokat pedig annál kevésbé, sokszor pedig ezek azok az olvasók-kutatók azok, akiknél néhány tizedmilliméteren és a másodperc töredékén múlik, hogy meg tudják-e menteni a beteg életét: a sebészek, akik nyilván sebészeti szaklapokat olvasnak. Gaál Csaba Szakírás című zseniális könyvében részletekbe menően tárgyalja a témát.

Arra viszont már ember nem gondolna, hogy azokat a matematikai cikkeket más matematikusok (!!) kevésbé hivatkozzák, amikben több a képlet, ennek megfelelően kisebb arányt foglalnak el a teljes cikkben a magyarázó szövegek és ábrák. A matematikusok! Szinte hihetetlen, de tényleg így van, profán módon megjegyezhetnénk, hogy legalább ebből tudható, hogy ők is emberek.

Ha külcsínyről van szó, a Microsoft több, nagyon hasonló szolgáltatása közül a Power BI-t nem véletlenül övezi siker: gyakorlatilag bármilyen ma használatos adatforrásból importálhatunk bele adatokat, majd azt a legkülönbözőbb nézetek szerint jeleníthetjük meg, végezhetünk vele műveleteket, generálhatunk reportokat. Vegyük észre, hogy az egyszerű Excel okosodása sem új jelenség: a meghívókódokkal elérhető Tudástárban több videót bemutattunk, amiben az alkalmazás gyakorlatilag kitalálja a felhasználó szándékát: a FlashFill nem csak logikusan, értelmesen tölti ki egy oszlop sorait, megint másik funkció ötletet ad azzal kapcsolatban, hogy a nem megfelelő formában lévő adatokat hogyan bonthassuk pontos rendbe, külön-külön oszlopokba, nyilván anélkül, hogy mindnél ugyanazt az esetleg lélekölő többlépéses műveletet kellene elvégezni.

A Power BI is bevezette a Natural Language Query-t, ami több, mint fícsör: gyakorlatilag a felhasználó megfogalmazza, hogy milyen megjelenítést szeretne vagy milyen műveletet végezne el, a Power BI pedig prediktálja a lehetőségeket, majd egy kattintás és máris pontosan az látható és úgy, ahogyan szeretnénk, aminek a jelentősége felmérhetetlen, ha például egy executive reportba kerül majd az anyag.

Nem vinnénk el nyelvészkedős irányba a posztot – már megint 🙂 – de figyeljük meg, hogy emögött mennyire komoly nyelvtechnológiát kellett bevetni valamint azt, hogy adódott egy üzleti-informatikai kihívás, amire lényegében a nyelvtudomány adta a megoldás alapját, holott évekkel-évtizedekkel ezelőtt, amikor még senki sem hitte volna, hogy ennyire okosak lesznek a gépek, nem még azt, hogy ilyenre szükség lesz. Érdekes történeti kitekintés, hogy az Oracle is onnan kapta a nevét, hogy egyfajt orákulumként bármilyen kérdésre meg tudja adni a választ, ha az megfelelően formalizált. Az NLQ esetén viszont még formalizáltnak sem kell lennie.

Ahogy a 20. század elején úgy gondolták, hogy hamarosan elég lesz napi 4 óra munka is, aztán az új technológiák újabb kihívások elé állították az embert, egy hasonló jelenséget figyelhetünk meg, viszont bizonyos szempontból, egy parafrázissal élve éppen “kifordítva”. A bankba érkező ügyfeleknek sorszámot pecsételő néni elvesztette az állását azzal, hogy a sorszámokat már automata köpködi ki, viszont annak az automatának az ellátási láncot biztosítani kell, néha javítani, fejleszteni. Maradva a pénzintézeteknél, amikor a számlák adatait papírról vagy más hordozóról átköltöztették gépekre, majd mai értelembe vett adatbázisszerverekre, nyilván okafogyottá vált azoknak a munkája, akik addig papíron rögzítették a pénzügyi műveleteket, abban az időben úgy gondolhatták sokan, hogy az adatbázisszerverek tömegesen váltották fel az emberek munkáját, úgy gondolva minderre, mintha ezzel a feladattal nem kellene foglalkozni a továbbiakban, ami nyilván megmosolyogtató, hiszen továbbra is kell hozzá az ember, csak más mindsettel. Kellenek helyettük emberi erőforrásként az egymással versengő adatbázismotorok fejlesztői, adatbázis adminisztrátorok és így tovább.

E sorok írója nem vallotta soha, amit sokan dogmaként fogadnak el, miszerint a gépek a feje tetejére állították és állítják világot az ipari forradalomtól kezdve rendszeresen – pontosabban abban egyetértünk, hogy változás van, a világ változásának üteme pedig felgyorsult a 18. századtól kezdődően, csak teljesen mást értek alatta én. Például az ipar 4.0-nak nevezett jelenség, egy korszakhatárt jelöl ki és segít didaktikailag jobban értelmezni azoknak a változásoknak az együttesét, amik korábban nem voltak, de szó sincs róla, hogy itt valami annyira különleges forradalomról lenne szó, ami teljesen más szemléletmódot igényel, mint a korábbi forradalmak.

Kitekintés után vissza a lényeghez: amikor a gép emberszerű viselkedést mutat, például értelmez egy szóban feltett kérdést, manapság a tömeg hajlamos azonnal mesterséges intelligenciának nevezni, mert ez az aktuális fancy. A Power BI használata közben is ez történik, amikor NLQ-ban kérdezünk a szoftvertől, ő pedig válaszol. Viszont! Vegyünk észre egy rendkívül fontos dolgot. Hogy minél pontosabb előismeretekkel kell rendelkeznünk ahhoz, hogy megfelelő kérdéseket intézzünk a géphez, ahol ugye nem kizárt, hogy irreleváns vagy teljesen hülye kérdésekre is képes intelligens, azaz lényegében megfelelő következtetésekből keletkezett információkkal választ adni, de összességében nem arra válaszol, amire ténylegesen a felhasználó kíváncsi volt. Itt jön, amire az mondhatnánk, hogy nem kis kockázatot hordoz magában.

Sokszor még rokon szakmák képviselői sem értik eléggé egymás nyelvét, például az ügyfél megfelelő szaktudás hiányában nem tudja megfogalmazni egy fejlesztőcsoportnak az üzleti igényeit, jobb esetben úgy kell kibogozni, hogy mit akar az ügyfél, aztán közösen összetákolnak valamit, amiből idővel szoftverspecifikáció lesz. De rosszabb esetben megszűnik az együttműködés, persze anélkül, hogy világossá válna, hogy valamelyik fél nem értette a másik igényeit.

Az ilyen esetek közös, hogy a gyakran lenézett lexikális tudás hiányáról van szó. Akár Power BI, akár egyéb hasonló, döntéstámogató eszköz nyelvi feldolgozóját, mint beviteli perifériát nem tudjuk megfelelően használni, de ezt senki sem észleli időben, szinte tetszőleges méretű szervezet esetén rendkívüli károkat okozhat. Ha valakinek köszvényesek az ujjai, nem tud megfelelő sebességgel billentyűzni, egerezni, nyomkodni az érintőkijelzőt, ez azonnal kiderül. Beszélni viszont szinte mindenki tud és közel sem annyira triviális megállapítani, hogy az adott kontextusban például egy kérdés mennyire releváns, szakszerű, értelmes, ha pedig egy másik ember számára sem, a gép számára pláne nem az.

Elővehetjük a projektmenedzsmentet, aminek az 50-es évektől kezdőden kialakult, saját, szabványosított keretrendszere, terminológiája alakult ki, hasonlóan a könyveléshez, audithoz, minőségmenedzsmenthez. Tételezzük fel, hogy egy középvezetői pozícióban lévő alkalmazott nem rendelkezik megfelelő tudással valamelyik területen, egyszerűen azért, mert nem törte magát egy száraznak tűnő könyv tartalmának alapos átolvasásával az egyetemen, arra gondolva, hogy “úgyis minden ott a neten”. Ilyen esetben valósággá válik, amit korábban inkább csak iróniaként emlegettek: az okoseszköz tényleg okosabb lesz, mint a használója, mert a felhasználó még emberi nyelven sem képes megfelelő kérdéseket feltenni, amiből a gép helyesen prediktálni tudná, hogy valószínűleg mit akar csinálni a felhasználó.

Konkrétabban: adott egy pénzügyi területen dolgozó középvezető, akinek a pénzügyi ismeretei nincsenek az elvárható szinten, viszont ha valamit eltolt, gyorsan korrigálták 10-20 évvel ezelőtt. Ha ugyanez a pénzügyi területen dolgozó középvezető egy részfolyamatot végezve egy halom adaton ülve nem tudja, hogy mit kellene vele kezdeni, a megszokásaira támaszkodik, majd ennek megfelelően nem a legmegfelelőbb kérdést teszi fel a gépnek, ami erre válaszol, a részfolyamat eredménye végülis igaz lesz, csak nem az az információ, amire ténylegesen szükség van, majd ez egy másik részfolyamat bemenete lesz és így tovább. Nem nehéz belátni, hogy nagyon kevés számú részfolyamat után, amikor tájékozatlanul kérdeztett és a szigorú racionalitás szerint valid, ámde nem a megfelelő választ kapta vissza, ha a teljes munka végén ki is szúrják a hibát valaki, szinte visszakövethetetlen, hogy hol volt eredetileg. Ráadásul addigra már a pénzügy a származtatott információkat továbbította más funkcionális részlegek felé.

Ha több pénzügyes dolgozik egy-egy feladat megoldásán, akkor sem biztosan nagyobb az esély arra, hogy időben kiszúrják, hogy betévedtek egy barlangba. Elég felidézni a viselkedésökonómia nagyjainak meglehetősen egyöntetű véleményét azzal kapcsolatban, hogy az ember minden racionalitás ellenére hajlamosabb elfogadni az egyszerűbb, jelen esetben egyszerűbben értelmezhető magyarázatokat, gyakran függetlenül attól, hogy ennek mekkora a tétje.

Példánkban a gép nemhogy nem hibázott, hanem pont azt lehetne “felróni” neki, ha ember lenne, hogy nem eléggé felkészült felhasználók kérdéseire is magabiztosan válaszolt, ami emberi szempontból felelőtlenség. A gondolatkísérletet folytatva a legrosszabb esetben egyetlen, középvezetői részleg hülye kérdéseinek hatásai lassan, de megállíthatatlanul eszkalálódó káoszt okoznak a cégen belül, a felsővezetés eleve a formálisan helyes, de felkészületlenül feltett kérdésekre kapott információkat kapja meg, mint bemenetet, ennek megfelelően is fogják meghozni a döntéseiket, aminek a következménye akár a cég összeomlása is lehet.

Gyanítjuk, de nagyon úgy tűnik, hogy a lexikális tudásra még nagyon-nagyon sokáig szükség lesz, csak éppen a szerepe helyeződik át teljesen, a jelentősége nem.

Amikor elterjedt a logarléc, a matematikatanárok attól tartottak, hogy a gyerekek sokkal hülyébbek lesznek, leszoknak a gondolkodásról, ugyanez megtörtént az első elemes számológépek terjedésekor és folytathatnánk a sort. Ugyanakkor világos, hogy lehet akármilyen okos például egy számológép – vagy gondoljunk csak a Wolfram Alpha-ra – ha az embernek nincs meg a megfelelő tudása ahhoz, hogy jól tegye fel a kérdést, eleve nem kaphat választ olyanra, amire ténylegesen kíváncsi.

Mielőtt átgondolatlanul állítgatnád a DNS-címeid…

cloudflare-dns-szolgaltatas

A Cloudflare nemrég rukkolt elő a https://one.one.one.one/  public DNS-szolgáltatással, a bejelentésben mi mást ígérnének, ha nem azt, hogy jobb hellyé teszik az internetet.

Mi ez, és ki fogja használni?

Ez az úgynevezett DNS over HTTPS szolgáltatás, ami végre elrejti a himi-humi internetszolgáltatók elől, hogy mi mit böngészünk, mert többé nem hozzájuk kerül a DNS-lekérdezés, hogy turkálhassanak benne, statisztikázzanak, majd a végeredményt eladják jó pénzért, hanem titkosított csatornában jut el egy, azaz egy (megbízható?) helyre, az 1.1.1.1 címre.

Nem mellesleg az egyszintű, tehát egylépéses lekérdezés sokkal gyorsabb, mint nagyapáink elvei szerint össze-vissza kódorogni a neten, és begyűjteni egy nyomorult IP-címet. Az elosztott DNS jó ötletnek tűnt, amikor a világ összes memóriakapacitása kevesebb volt, mint 1 MB, de manapság…?

Jó hírünk van, a DNS over HTTPS most, 2018. októberében szabvánnyá vált, az RFC 8484 alatt találjuk.

Sajnos a felhasználók többségének a DHCP miatt  sok-sok éve nem kell foglalkoznia azzal, hogy elsődleges és másodlagos DNS-szervert kézileg állítson be, hiszen ezt éppen a DHCP miatt megkapja a szolgáltatótól, a VPN-szolgáltatótól, esetleg a munkahelye saját DNS1, DNS2 szervereket használ.

Pedig a DNS szerverek szerepe nagyon alaposan felértékelődött és ki is bővült, képesek figyelmeztetni a felhasználót, ha valamilyen nagyon rázós webhelyre tévednének például. Ilyen esetben nem a megcélzott weblap IP-címét küldik el a böngészőnek, hanem a saját hibaoldalukra irányítják. Az OpenDNS [208.67.222.222, 208.67.220.220], a Google Public DNS [8.8.8.8, 8.8.4.4] vagy éppen a Comodo által kínált public DNS esetén ez mind alapértelmezés.

Teljesen világos, hogy ezt csak úgy képesek megtenni, ha valamilyen szinten információt gyűjtenek arról, hogy egy-egy hoszttal kapcsolatban mennyi névfeloldási kérés érkezett, valamint, “behind the scenes”, hogy a feloldott hosztnevek és címek összefüggésbe hozhatók-e például botnet-aktivitással, vagy egyáltalán bármilyen forgalommal, ami a kliensre nézve veszélyes lehet.

Azaz a public DNS felold, nagyon gyorsan ellenőrzi, hogy nem vezetné-e a klienst valamilyen veszélyes vidékre, majd ezt követően kiszolgál. Az aktuálisan leggyorsabb DNS-szolgáltatók listája a https://www.dnsperf.com/#!dns-resolvers linken érhető el, ahol, ahogyan az várható volt, a Cloudflare által nemrég használatba vett 1.1.1.1 lett az első.

A Cloudflare 1.1.1.1 oldaláról kiderül minden szép és jó. Aki nem ma kezdte el használni az internetet, nem csoda, ha szkeptikus egy olyan szolgáltatással kapcsolatban, ami azt ígéri, hogy semmilyen (!!) információt nem gyűjt – nem teszi hozzá, hogy ennek megfelelően nem is ellenőriz, így pedig nem nehéz a leggyorsabbnak lenni – ingyenes, na meg “használd, aztán jó lesz”…

Amit még érdemes megjegyezni, hogy a DNS-szerverek sebességét gyakran összefüggésbe hozzák az internetezés effektív sebességével, amiben annyi a ráció, hogy egy-egy hírportál betöltődéséhez akár 60-70 névfeloldásra is szükség lehet, de a feloldás milliszekundumokban mérhető, elhanyagolható amellett, hogy a böngészőkbe a tényleges tartalmak milyen sebességgel érkeznek, a böngészőmotor azt milyen sebességgel rendereli.

Ha behatóbban érdekel a DNS működése, érdemes lehet követni a NetAcademia LinkedIN-oldalának feedjén megjelenő Tudástár-videókat, ahol a hozzáféréshez szükséges meghívókódokat is megtalálod.

Üzenetküldők, amik felfedik az új mobilszámod (is) egy creepy fícsörön keresztül

viber-sebezhetosegMindenki számára ismerős jelenség, aki használ Vibert, Whatsappot, Telegramot, Signalt, LINE-t vagy hasonlót, hogy időnként megjelenik egy üzenet arról, hogy “Alice éppen regisztrált, köszönj neki!”.

A háttérben persze az történik, hogy amikor Alice regisztrál például a Viberre, az összes olyan felhasználónál, ahol a Viber telepítve van és Alice regisztrációhoz használt hívószáma el van mentve a telefonkönyvükben, amit alapértelmezés szerint a Viber folyamatosan olvas és össze tud vetni a már regisztrált, cloudban tárolt számokkal, ez alapján jelez. Alice erről persze alighanem nem tud, hacsak nem olvasta el a maratoni hosszúságú T&C-t.

Ami viszont ennél sokkal érdekesebb, hogy ha egy Viber felhasználó új mobilszámot kezd használni, ugyanakkor nem akarja a korábbi Viber accountját törölni és teljesen újat létrehozni, lehetősége van a meglévő accounton a szám átírására is. Ekkor pedig olyasmi történik, ami privacy szempontból minimum juicy: az összes kontakt értesítést kap róla, hogy Alice Viberen használt hívószáma megváltozott és arról is, hogy egészen pontosan milyen korábbi számról milyen új számra. Viszont ez már némileg más mechanizmus alapján történik, itt kezdődik az izgalmas rész!

A Viber ugyanis ezt a figyelmeztető üzenetet egyrészt az előbb ismertetett mechanizmus alapján dobja szét, másrészt azoknak a felhasználóknak _szintén_, akik Alice telefonkönyvében el vannak mentve és használják a Vibert. A leginkább creepy az egészben, hogy sajnos azok a felhasználók is értesülnek róla, akiket Alice esetleg le is tiltott, mivel ezt az adatot már az üzenetküldő nem látja, viszont ahhoz, hogy egy szám tiltva legyen, valahol a mobil oprendszerének nyilván tárolnia kell olyan bejegyzéssel, hogy le van tiltva.

IRL: ha Alice szakított Bobbal, majd Bobot mindenhol letiltotta, esetleg azért változtatta meg a mobilszámát (amit csak nagyon kevesen tudnak) hogy Bob nehezebben tudja elérni, a Viber Bob előtt fel fogja fedni Alice új mobilszámát!

Az, hogy a világ legnagyobb felhasználói bázisával rendelkező közösségi webes szolgáltatásai folyamatosan dolgoznak azon, hogy a privacy beállítások áttekinthetőbbek legyenek a felhasználók számára, nemes dolog, ennek ellenére mégis azt látjuk, hogy tömegeknek még mindig túlságosan bonyolult ezeket a beállításokat megfelelően megadni.

A viberes eset pedig pláne olyan, amivel kapcsolatban nem várható el egy átlagos felkészültségű felhasználótól, hogy tudja, ami akár kockázat is lehet, ha ne adja isten, Bob hogy úgy fogalmazzunk, a kelleténél jobban ragaszkodik a Alice-hoz a szakítás után. Külön pikáns a sztoriban, hogy a Viber gyakorlatilag éppen az ellenkezőjét csinálja, mint amit ígér, hiszen elvben nincs kizárva, hogy egy VM-re telepített Androidon, amiben el van mentve több tízezer mobilszám és futtat egy Vibert, kimondottan azt kövesse, hogy ki mikor regisztrált vagy változtatott mobilszámot, olyan finomságokról nem is beszélve, hogy a Viber sokáig, talán még mindig alapértelmezés szerint a Facebook profilképet használta avatarképként ill. nagyon gyakran azt állítja be a felhasználó, valamint a szolgáltatás mutatja, hogy a felhasználó mikor volt utoljára akív.

Ahogy Keleti Arthur megjegyezte egyszer, nagyon közel van az az éra, amikor már teljesen esélytelen lesz még a megfelelő privacy beállítások megadása is a felhasználók saját döntéseik alapján, egyszerűen azért, mert túlságosan bonyolultak, ezért majd beállítja helyettük valamilyen jólnevelt AI. Hogy a beállítások milyen áttekinthetetlenül bonyolultak tudnak lenni, ennek megfelelően épphogy nem az a célt szolgálják, amire kitalálták őket, arról a Google Plus-szal foglalkozó posztban is írtunk.

Mesterséges intelligenciáról – komolyan I.

mesterseges-intelligencia-etikaA mesterséges intelligencia alkalmazásának általánossá válásával kapcsolatban rendszerint felmerülnek azok a kérdések, amik valamilyen etikai oldalt próbálnak a ízekre szedni egy hipotetikus jelenséget. Ez persze helyes, viszont ha nem is éppen kocsmafilozófiai szintű bölcsességeket hordanak összes sokszor még a komolyabban vehető fórumokon is, ugyanazok a legrágott csontok kerülnek elő a témát tárgyalók tájékozottságának megfelelően.

A mindenki által ismert klasszikus, hogy a jövőben egy önvezető autó olyan típusú döntéshelyzetben, amikor arról kell döntenie, hogy egy szabálytalanul szembe jövő kocsinak ütközik, az ütközés következtében pedig minden utasa meghal, de alternatívaként választhatja azt is, hogy felkanyarodik a járdára és elüt ugyanannyi gyalogost, akkor mégis mi alapján kellene megtanítani a helyes döntési stratégiára?

Igen ám, csakhogy ez az elgondolás ezer sebből vérzik. A következő néhány gondolat nem teljesen saját, nemrég vehettünk részt egy olyan rendezvényen, ahol éppen hasonlók kerültek szóba, a téma elismert kutatói pedig éppen a hadtudomány és közlekedéstudomány területéről hoztak példákat azzal együtt, hogy sokszor miért rosszak.

Világos, hogy nincs tökéletes gondolatkísérlet, de a fent vázolt eset már-már túl sterilnek mondható, éppen ezért a kérdésfelvevés ebben a formában hihetetlenül laikus. Alapvetően nem tudjuk, hogy mit hoz a szingularitás, azaz ha csak az önvezető járműveket nézzük, annyi minden történhet még az általánossá válásukig, amiket nem tudunk a gondolatkísérletünkbe ágyazni, holott fontos lenne, hogy az is egy vélemény, ami szerint a kérdésfeltevés ma még szinte értelmetlen. Egy analógiával élve: olyan ez, mintha a középkorban tudták volna, hogy lesz egy olyan információs hálózat, amin keresztül szinte minden elérhető, többet nem nagyon, de már a közösségi web természetével kapcsolatban akartak volna jóslatokat megfogalmazni.

Az előzőhöz kapcsolódó tudománytörténeti érdekesség, hogy a vonatok és az első kocsik esetén is aggasztó kérdés volt, hogy az emberi testre nem hat esetleg kiszámíthatatlan módon a lovaskocsikétól nagyobb sebesség.

Egy bioetikával is mélyen foglalkozó filozófus szót ejtett arról, hogy az etikatörténet azért sokkal érdekesebb, mint amilyennek első hallásra tűnik, mert a lényeg azon van, hogy a közösség tudatában mikor mit jelentettek olyan fogalmak, mint az etika vagy a morál.

Hogyan kapcsolódik mindez ide?

Ismét csak a technológiai szingularitást húznánk elő: nem tudjuk, hogy maga az etika, annak felfogása hogyan értelmeződik át, ahogyan azt sem, hogy a szociálpszichológiai értelemben vett hallgatólagos társadalmi szerződések, konszenzusok, ezzel párhuzamosan pedig a social norm hogyan fog változni. Sejthetően annyira azért nem, hogy valaha is bocsánatos bűn legyen mondjuk embert ölni, ennél konkrétabbat nem nagyon lehet mondani biztosra még középtávon sem!

Egy mérnök informatikus végzettségű filozófus dobott egy nagyon pazar példát. Miért van az, hogy az AI-val kapcsolatban megfogalmazunk olyan félelmeket is, amik egyszerűen nem racionálisak, az viszont alig jut eszébe valakinek, hogy amikor valaki vesz egy Hummert vagy hasonló több tonnás kocsit, ezzel gyakorlatilag eldöntötte, hogy egy komolyabb baleset esetén más embereket fog megölni, jobb esetben csak megsebesíteni.

És tényleg! Ez belefér, az AI tévedése már nem? Lépten-nyomon előtűnik az, hogy az AI-val kapcsolatban sokkal szigorúbb, többször alapvetően irreális vagy irreálisan szigorú feltételeket támasztunk etikai szempontból, mint önmagunkkal kapcsolatban. Így tényleg indokolt lenne visszatérni néhány alapvetéshez.

De nem csak a polgári közlekedésből, a hadtudomány területéről is hozhatunk igencsak ütős témákat. Az USA döntéshozóit bő 10 éve nem keveset támadták amiatt, hogy háborús környezetben drónokat lehessen-e bevetni vagy sem. Egy pillanatra megtorpannánk: függetlenül attól, hogy valaki mennyire pacifista, el kell fogadni azt a tudományos tényt, hogy a hadműveletek semmi máshoz nem hasonlítható civilizációs szituációk, amikor a legelemibb ösztönöket és mindenféle magasabb szintű gondolkodási folyamatot félretéve a katona dolga az, hogy megölje az ellenséges katonát. Ahogy az is alapvetés, hogy a lakosságot viszont tilos támadni. Más kérdés, hogy a mai háborús szituációk sokszor nem járnak tényleges katonák halálával vagy csak nagyon kevesen sebesülnek meg.

A Pentagon más szervezetekkel együtt dolgozva a drónok alkalmazását olyan módon engedélyezte, hogy gyakorlatilag mindent csinálhatnak, amire csak képesek, viszont semmilyen körülmények közt nem ölhetnek. Ilyenkor a laikus pislog, néz ki a fejéből és nem érti, hogy ha egy drón például egy katonai támaszpontra vagy erőműre ráküldhet egy rakétát, ami aztán vagy jár katonák, esetleg civilek halálával vagy sem, akkor már nem mindegy, hogy szándékosan ölhet-e vagy sem? Nos, nem.

De nem is ez a lényeg. Hanem az, hogy miért döntött úgy egy, sok-sok, igencsak értelmes emberből álló testület, hogy a drónok ugyan bőven fel lehetnek szerelve emberi élet kioltására alkalmas eszközökkel, ölni pont nem ölhetnek, ellentétben a katonákkal.

Itt mutatkozik meg, hogy a tudásunk ezen a téren mennyire korlátozott. A katona attól katona, arra képezték, hogy háborús szituációban mérlegelés nélkül teljesítse a felettese utasítását, ugyanakkor paradox módon időnként dönthet, hogy lelő-e valakit vagy sem, míg a drónnak nincs meg ez a szabadsága? Ahogy szó szerint nagyon frappánsan elhangzott: “honnan tudjuk, hogy az ember jobban öl, mint az AI”, itt a jó alatt a hadtudományi értelemben vett szakszerűség értendő.

Ezen kívül több izgalmas, döntéselméletet és jogelméletet vastagon érintő kérdés is felmerült. Az Európa legnagyobb részében alkalmazott kontinentális jogrendszerek egyik lényege, hogy ha nem is mentesek a hézagoktól, talán annyi megállapítható, hogy az élet teljes területét lefedik. Akár a polgári jog – olyan, e sorok írójának legszebb területei, mint a szerzői jog – akár a sokszor példákban könnyebben érthető büntető-eljárásjog és büntetőjog. Inkább hagyjuk is, hogy mi is lényegében maga a jog, mert elmagyarázni alighanem bonyolultabb, mint egy polinéziai bennszülöttnek azt, hogy mik az internetes mémek.

Példákon keresztül persze mindenkinek van valami szemléletes képe róla, szorítkozva a kontentális jogrendszerek működésére, a többségnek pedig az életellenes bűncselekmények jutnak eszükbe, ha bonyolult kérdésekről van szó. Ott viszont egy-egy törvény alkalmazása annyira egyszerű lehet, hogy még egy laikus is megtippelheti, hogy egy-egy esetben melyik vádpont fog megállni a bíróságon.

Tételezzük fel, hogy két részeg összeverekedik a kocsmában, aminek eredményeként egyikük meghal. Míg egy másik esetben a cél kimondottan egy másik életének kioltása. Az első testi sértés, a második pedig emberölés, a kettő elkülönítésével pedig nincs könnyű dolga a vádhatóságnak sem.

A lényeg viszont, hogy már évtizedekkel ezelőtt terveztek olyan szakértői rendszereket, amik lényegében egy in real life szituációt értelmeztek, sok-sok bemenő adat alapján értékeltek, majd ha úgy tetszik, formális logikánál nem sokkal bonyolultabb módon „rápattintották” a megfelelő jogszabályt.

Nem meglepő módon a jogászok nem voltak oda az ötletért, holott a jog lényege az lenne, hogy egyféle esetet csak egyféleképp lehessen elbírálni, függetlenül attól, hogy azt kik végzik, akár egy közlekedési szabálysértésről, akár terrorcselekményről van szó. Nagyon gyorsan hozzátesszük, hogy nincs “egyszerűbb” és “bonyolultabb” eset olyan szempontból, hogy milyen törvény alapja képzi a vádat, de.

Abban nagy meglepetés nincs, hogy egy-egy, totál egyszerű jogesetet is a laikusok mind teljesen máshogy ítélnének meg. Ami már meredekebb, hogy a 7-10 évet tanult ügyvédek, és a 10-15 évig tanult bírák ugyancsak. Persze pimasz megfogalmazással ők szakszerűbben nem értenek egyet.

A jogrendszer szereplőinek döntéseinél is mindig kisebb-nagyobb mértékben jelentkezik egyfajta belső, törvény fölött álló meggyőződés, ami külön pontos terminust is kapott. Lényeg, hogy kimondatlanul, de például a nem jogi értelemben vett méltányosság is kihat a bíró vagy éppen a vádhatóság tagjainak döntéseire. Remek kérdés, hogy ez mennyire teszi összességében hatékonyabbá a teljes rendszert. Az biztos, hogy előre nem látható, nagyon súlyos következményei lennének annak, ha ezt a kimondottan emberi sajátosságot egyszerűen elhagynák egy robotbírók, robotügyészek és robotügyvédek módján működő szakértői rendszerből.

Visszaugorva a közlekedésbiztonság és az AI jövőbeli kapcsolatára. Az MIT Moral Machine-jében megtalálható olyan eset is, amikor dönteni kell, hogy ha egy hipotetikus esetben végképp nincs más választás, akkor a kocsi jobbra vegye a kanyart és egy idős ember üssön el, vagy balra vegye, amivel egy ötéves kisfiú életét oltja ki. Megengedhetjük-e magunknak azt a luxust, hogy a totálisan steril szituációt a való világba ültetjük gondolatban és hozzátesszük, hogy a kisfiú bizony egy véres kezű diktátorrá is cserepedhet?

Senki sem mondta, hogy a bioetika egyszerű műfaj lenne. Mert nagyon nem az. Olyannyira nem, hogy már magyar nyelven is olvashattunk róla cikket nemrég, amiben a szerző az taglalja, hogy az informatikushiány mellett a világra szakadhatna még egy filozófushiány is, amivel kezelhetőbbé válnak az ilyen problémák, dilemmák.

Jópofa időtöltés lehet a böngészőben embereket csapni el a legkülönbözőbb módon a MIT Moral Machine-nel, tudományos alapokon, arra azért minimum kíváncsiak lennénk, hogy a különböző kultúrákból számazó felhasználók tipikus döntési sémái hogyan különböznek egymástól.

A precíz tudományos kifejtést és szóhasználatot a könnyebb érthetőség kedvéért a szokásosnál némileg gyakrabban áldoztuk fel a cikkben.

Bezár a Google Plus – miután alaposan lecsapolták

google-plus-megszunik.jpgHa már a mostani az információbiztonság hónapja, jött a hír, hogy a Google bezárja közösségi webes szolgáltatását, ami igazából csak néhány napig volt sikeres: amikor bejelentették, hogy elindítják, a felhasználók pedig vetélkedtek, hogy kinél lesz korábban elérhető.

A Wall Street Journal egy névtelen forrásra hivatkozva írta meg, hogy 2015-től kezdődően 2018. márciusáig az API-n keresztül olyan információk voltak elérhetők a felhasználókkal kapcsolatban, amiknek az elérését kimondottan korlátozták. A Google nem cáfolta a hírt, hivatalos blogbejegyzésben részletezték, hogy a leak akár félmillió felhasználót is érinthetett, de ahogy az ilyenkor lenni szokott, gyorsan hozzátették, hogy nincs bizonyíték azzal kapcsolatban, hogy valaki ténylegesen csapolta is voltna az adatokat, ami minden ilyen esetben minimum életszerűtlen.

Itt megjegyezzük, hogy egy ujjal sem kellett az API-hoz nyúlni, enélkül is eszelős mennyiségű információt csorgatott ki a felhasználóiról a Google Plus, hacsak azok nem lőtték le a teljes szolgáltatást vagy nem baktattak végig a mezei júzernek szokatlanul bonyolult, ráadásul rendszeresen változó privacy checkupon – nem keverendő a security checkuppal annak beállításait ugyanis átlagos felkészültségű felhasználónak esélye sem volt egészében megérteni, csak egy kis részlet illusztrációként:

google-plus-privacy-1

google-plus-privacy-checkup.png

Egy nagyon egyszerű, konkrét példa: nagyon sokáig ha a Google Contacts szolgáltatásában egy üres bejegyzést hoztunk létre, amibe beírtunk egy mobilszámot vagy email címet, amikről esetleg nem tudtuk, hogy kié, a Google volt olyan kedves és megmutatta az érintett felhasználó Google Plus profilját, mint kényelmi funkció. Ha valaki nem figyelt rá, hogy kik láthatják vagy akár scrapelhetik le, hogy milyen tartalmaknál nyomott a +1-re, nyilván sokkal több információt árult el magáról ezzel, mint amennyit tudatosan megosztott volna a világgal. Ezek a kényelmi feature-ök, amik sokkal inkább voltak bugok, csak még átláthatatlanabbak és persze még inkább kihasználhatóak voltak azzal, hogy a Google a saját szolgáltatásaiban eredetileg külön-külön kezelt információkat elkezdte aggregáltan kezelni. A felvázolt alaptrükk lényege egyébként az AOL-ban, Yahoo-ban teljesen hasonlóan működött.

A hivatalos blogbejegyzés szokásosan diplomatikusra sikerült, annyi viszont egyértelműen kiderül, hogy komoly a baj, amit még akkor is fel lehet fújni, ha alig használ valaki Google Plus-t. A lényeg röviden, hogy a mezei Google-felhasználók számára a szolgáltatást kivezetik, míg a G Suite, azaz a Google vállalati verziójában meghagyják, még ha ilyen módon jórészt értelmetlen is marad az egész.

Nincs új a nap alatt, tényleg nincs. Egy közösségi szolgáltatásban hiába van piktogramként kis lakat, emberke, karikácska, földgömböcske, így vagy úgy, csak az az információ nem férhető hozzá, amit a felhasználó meg sem adott, ami átvezet egy eléggé aggasztó kérdéskörhöz. Több Google-szolgáltatás csak akkor használható, miután bizonyos adatokat, mint amilyen a születési dátumunk, megadjuk, ezen kívül egy androidos eszköz aztán mindent visz, amit lát az eszköz felhasználójával kapcsolatban. Lehet ugyan, hogy rákérdez, hogy a megadott adatok milyen körben legyenek elérhetőek, ahogy ez lenni szokott az antivirus termékek figyelmeztetéseinél is, a felhasználói magatartásban ősi reflex, hogy minél előbb eltüntesse a felugró figyelmeztető ablakot vagy notify-t, ami ellen ugye nincs védelem. Világos, hogy a születési dátum olyan adat, amire szükség lehet, ha valaki a hirdetési rendszert használná, vásárolna vagy korhatáros videókat nézne, ezek megadása indokolt. Viszont később a Plus kérte a felhasználót, hogy menjen végig a privacy checkupon, az eszes felhasználó pedig, hogy minél gyorsabban végezzen a folyamattal, mindennél jóváhagyta az alapértelmezett vagy ajánlott beállítást, így például azt, hogy a születési dátumot láthassa egy ésszerűtlenül széles kör, például aki felveszi a saját körébe, hasonlóan nem korlázozta a felhasználó azt sem, hogy valaki a mobilszáma alapján találjon rá, amit eredetileg korábban éppen biztonsági célból adott meg. A checkupot pedig a felhasználó alighanem 10 perccel később már el is felejtette.

Számtalan áthallást vehetünk észre a Facebook adatkezelési gyakorlatával kapcsolatban: egyik személyes kedvencként emelnénk ki, hogy nagyon sokáig az volt az alapértelmezett beállítás a Facebookon, hogy az email cím valamint a mobilszám pontos megadásával lehessen felhasználót megcímezni, üzenetet küldeni neki. Extra finomság, hogy ehhez nem kellett ténylegesen üzenetet küldeni, csak az új üzenet küldésekor valamelyik adatot be kellett dobni a címzett mezőbe és a rendszer kedvesen feldobta a hozzá tartozó felhasználót képpel és névvel. Mindezt a beállítások közt a “Who can look you up using the email address you provided?” és a “Who can look you up using the phone number you provided?” alapértelmezett Everyone beállítása tette lehetővé korábban. Megjegyzendő, ha valaki a mobilja címjegyzékével vagy más szolgáltatással szinkronizálta, mergelte a szolgáltatásban lévő kontaktjait, ott ugyancsak megjelenhetett a mit sem sejtő felhasználó, ráadásul már kiegészített adatokkal!

facebook-who-can-contact-you

Ami a Google Plus-t illeti, már eleve a beállítások, – amik tehát nem keverendők a Google Account beállításaival – olyan idétlenül el lettek rejtve, hogy azt megtalálni is kisebb bravúr a teljes checkupon pedig itt lehet végigbaktatni, miután valaki megtalálta a Plus oldalán a lehetőséget.

Többen gondolhatják úgy, hogy az egyetlen értelmes beállítás az összes közül a
“Send me occasional reminders about these settings” checkbox.

Az átlag felhasználó részéről a zsigeri reakció lehet ezt olvasva, hogy minél több információt irtson ki a Google szolgáltatásaiból, ami látszólag paradox módon, messze nem a legjobb ötlet több szempontból. A Google bizonyos szolgáltatásai megkerülhetetlenek, aki mondjuk levelezésre is használja, igencsak nagy mennyiségű információ koncentrálódik egy-egy fiókban, ha pedig a fiók hozzáférhetetlenné válik, a Google gépi account recoveryje sokkal kevesebb adat alapján lesz képes ismét hozzáférést adni egy olyan fiókhoz, aminek a jelszavát például megváltoztatta a támadó. Másrészt időszerű lenne már elfogadni azt a tényt, hogy bárki bármit is mond, csak az az adat nem kapcsolható egy felhasználóhoz, ha azt az adatot sosem adta meg konkrétan senkinek. Ennek az abszurditását nagyon jól példázza, hogy ha valakinek megadod a mobilszámod, nem mondhatod neki, hogy papírcetlin sziveskedjen tárolni, mert az androidos mobil küldi fel a ködbe’ a mobil telefonkönyvébe írt más adattal, például email címmel együtt. Azaz megmosolyogtató szélmalomharc, amikor valaki ráadásul utólag nekifut törölni a hozzá kapcsolódó adatokat egy szolgáltatásból, hogy aztán lehintse sóval, mivel ha csak néhány ismerőse van, aki felvette kontaktnak, a LinkedIN, XING, Facebook és a többi alapértelmezés szerint szinkronizálják a kontaktadatokat, ahogy az is alapértelmezés több helyen, hogy mindenki konktaktlistába kerül, akinek valaha is levelet küldtünk vagy más küldött nekünk.

Röviden: lehet használni butamobilt is, ha nem egy őserdőbeli kunyhóban lakik valaki, több-kevesebb adata úgyis ott lebeg a fellegek közt.

ínyenceknek ajánlott a MIT Press egyik sorozatában megjelent Metadata című könyv Jeffrey Pomerantztól, ami szintén megmagyarázza, hogy miért található meg akár valahol a neten egy képen több-kevesebb energiabefektetéssel még nyílt forrásból is olyan, aki egyébként soha nem csinál képeket, ha például valahova elutazik.

metadata-mit-press

Az új világ sokak számára egyszerűen érdektelen, megint mások komolyan úgy gondolják, hogy teljes egészében az ő kezükben van a kontroll a saját adataik fölött, valamint egy töredék rész tisztában van vele, hogy akár tetszik, akár nem, a hagyományos értelembe vett magánszféra teljesen átalakul, ugyan nem világos, hogy milyen módon, de az igen, hogy emiatt aggódni vagy küzdeni ellene értelmetlen vagy az információk megvédése irreális erőbefektetést, ésszerűtlen paranoid titkolózást követel meg.

Visszatérve az eredeti hírhez, nagyon sokszor még csak API-trükközést sem igényel, hogy kivájjon valaki valamit, az szolgáltatásplatform fejlesztőinek a felelőssége, hogy csökkentsék az észrevétlen adatszivárgást akár API-n keresztül, akár prosztóbb módszerekkel, ami nyilván azzal a kompromisszummal jár, hogy az alkalmazásfejlesztőknek sokkal kisebb lesz a mozgástere. És a jó öreg gazdasági oldal? Igen, igen: a túlságosan throttle-olt API-n értelemszerűen kevésbé vagy nehézkesebben lehet bármit is varázsolnia a fejlesztőnek, ilyen módon az API-t nyújtó szolgáltatás versenyhátrányba kerülhet konkurrenst szolgáltatásokhoz képest.

Ami a Google Plus-t illeti, maholnap béke poraira, csak egyetlen példa volt arra, hogy egy olyan szolgáltatás, amit gyakorlatilag nem is használnak, de jelentős felhasználói bázissal működött, mekkora kavart okozhat, egy Google-szolgáltatás ide vagy oda, eléggé megszokott, egy-egy óriásszolgáltatás kivezetése, ahogy arról korábban is írtunk már.

képek: boingboing