Nyelv, mesterséges intelligencia, na meg felsőtest strandszezon utánra

nyelvek_kulturakTöbbször érintettük azt a témát, hogy a keresés hogyan változtatott meg minden területen mindent, ahol információ előfordul: azaz mindenhol. Hamarosan elmagyarázzuk azokat az algoritmusokat, amikről gyakorlatilag sosem esik szó, amikor egy rendezvényen valaki a big data, data science, legújabban pedig az artifical intelligence buzzwordköket zúdítja ránk egy előadás keretében félpercenként. Előtte viszont hozunk példát a keresés olyan típusú alkalmazására és annak hátterére, amilyennel eddig még kevésbé foglalkoztunk.

Konkrét példaként vegyünk egy minden férfi képzeletét megmozgató valamit, amire  példánkban “kétségbeesetten” keresni fogunk. Igen, a férfi felsőtest fényképét deltássá változtató fotómanipuláló appról van szó! Találjuk meg a legjobbat ebből!

Világos, hogy a nagy-nagy keresőmotorok már értelmezik, amit olvasnak a weben, ahogyan az is, hogy ez az egyik, ami lehetővé teszi, hogy egy-egy teljesen emberszerűen megfogalmazott kérdést a legpontosabban értelmezzen a kereső, sőt az keresési találatok által mutatott tartalmak igazságtartalma, tényszerűsége is lassan, de javul.

Mindegy, hogy egy mobileszközön mennyi alkalmazást telepítettünk, úgyis csak 6-8-at használunk napi rendszerességgel. Nem lennénk meglepve, ha a telepített, aztán ténylegesen használt alkalmazások használati gyakoriság szempontjából skálafüggetlen eloszlást mutatnának, azaz a legritkábban használt alkalmazásról már alighanem azt sem tudjuk, hogy mik is eredetileg, míg összesen egy maréknyi lenne, amit naponta használunk. Megint mások annyi alkalmazással tömik ki a tabletjüket és a mobiljukat, amennyi ráfér.

Amikor nem valamilyen konkrét alkalmazást szeretnénk letölteni, hanem egy igényre keresünk megoldást akár a Google Play-ben, akár az App Store-ban, mindkettő keresője egész nagy pontossággal meg tudja jósolni, hogy mire van szükségünk, annak ellenére – itt jön a lényeg – hogy mobileszköznél máshogy, alapvetően rövidebben adjuk meg a keresőkifejezést, ami alapján a háttérben a keresés majd megtörténik. A kérdés, hogy hogyan?

Azzal most ne foglalkozzunk, hogy mindkét platformnak megvannak a lehetőségei arra, hogy személyre szabottan, nem csak a korábbi letöltéseink alapján tudja a jóslatot pontosítani, hogy minél inkább személyre szabott találatot adjon.

Igaz, hogy mindkettő keresőjében lehet szűrni kategória, értékelés, népszerűség szerint, ezek azok a lehetőségek, amikhez a felhasználóknak nem is nagyon kell nyúlniuk.

Lehetne rajta vitatkozni, de amikor alkalmazást keresünk, ez alapvetően nem más keresés, mint amikor a nekünk leginkább megfelelő tartalmat igyekszünk kiválasztani. Az a gondolat itt is megállja a helyét, hogy ha jó választ szeretnénk kapni, jobban kell kérdezni. Viszont minél többet szeretnénk tudni, annál jobb korábbi válaszokra van szükségünk. Azaz sokat szeretnél tudni? Tudj jól kérdezni! Jól akarsz kérdezni? Ahhoz sokat kell tudni.

Egyszerű kísérletet végeztünk azzal kapcsolatban, hogy az egyik alkalmazásbolt mennyire találja el, hogy milyen alkalmazásra lenne szükségünk olyan esetben, ha hasonló témával korábban még nem foglalkozunk. Még csak nem is olyannal kapcsolatban kerestünk alkalmazást, ami egzotikus ételek elkészítésének fortélyaival foglalkozik, azokkal kapcsolatban kínál recepteket. Belátható, hogy aligha van annyira specializált vagy elborult téma, amire már ne lenne mobilapp – értelmes alkalmazás persze már jóval kevesebb.

Most jön az a pont, amikor a szerző tudományos kísérletnek álcázza, hogy ő valójában tényleg ki szeretne tenni a Facebookra egy dögös, deltás felsőtestet önmagáról, de ez annyira ciki, hogy inkább ír egy hatalmas cikket, amivel elfedi az ilyen tíupsú appok  keresésének valódi motivációját. Ki az a marha, aki ilyen appot keres? Valaki más!

Tehát tételezzük fel, hogy valaki, azaz valaki egészen más bármilyen okból elhízott, túl vékony, vagy nemtől függetlenül nem elégedett valamilyen szempontból a kinézetével. A felvetés kellően komplex ahhoz, hogy ha a nagy és okos Google-be írjuk valamilyen világnyelven, azaz angolul vagy spanyolul,

“Mik azok az alkalmazások, amikkel vonzóbbá tehetem az alakom fotók manipulációjával?”

még ilyen esetben is égtelen mennyiségű testépítéssel kapcsolatos cikk jön ki, ami jelen példában irreleváns. Aztán sokadik találatként megjelenik egy cikk, ami azzal foglalkozik, hogy mik azok az alkalmazások, amikkel a legjobb ilyen irányú fotóhakkolás lehetésges anélkül, hogy érteni kellene a grafikához.

A Google Playben és az App Store-ban azokat a kulcsszavakat adjuk meg, amik a mi ismerethalmazunk, gondolkodásmódunk szerint a leginkább kifejezik az igényt, amire szüksége lenne valaki egészen másnak. Még ha valaki eléggé jól tud angolul, akkor sem biztos, hogy ebben a környezetben jól meg tudja fogni a lényeget, hogy minél több jó értékelést kapott, sokak által letöltött alkalmazást kapjon a találatok közt, és elfogadhatóan kevés olyan alkalmazás jelenjen meg, ami irreleváns vagy éppen használhatatlan.

Nem nehéz belátni, hogy mindkét alkalmazásboltnak olyan mértékben elemi érdeke, hogy a keresőjük valóban okoskereső legyen, hogy egyszerű keresés mellett nem sokáig maradnának talpon. Alighanem a háttérben az alkalmazásboltok keresői is értelmezik az alkalmazások leírását, figyelembe veszik a konkrét feedbackeken kívül azt is, hogy az alkalmazást a letöltés után mennyien törölték és így tovább.

izmosito_appok.PNG

Ezzel még nem jutottunk sokkal közelebb ahhoz, hogyan is keressünk, ha kimondottan olyan alkalmazásra van szüksége valaki másnak, amivel a leggyorsabban és legjobban pattinthatja ki magát egy fürdőgatyás fotón. A probléma tehát az, hogy nem tudunk kellően jó kérdést megfogalmazni, az pedig igencsak a jövő zenéjének tűnik, hogy még azt is nagyrészt a gépagy találja ki helyettünk, hogy mire vagyunk kíváncsiak.

Tehát ha valaki ilyen appokkal nem szokott vicceskedni, azt sem tudja, hogy hogyan fogalmazza meg a kérdést a legjobban. Több módszert is kipróbáltunk és megfigyeltük, hogy hogyan változik a találatok sorrendje és összetétele, bár azt nem, hogy ezek az alkalmazások mennyire alkalmasak arra, amire kitalálták őket, hisz nekünk nem kell ilyen, csak valaki másnak.

Az első gondolat, hogy naiv megközelítésben mik azoknak a kulcsszavaknak az angol nyelvű megfelelője, ami a legjobban passzolhatnak. Például

body editor

vagy éppen

gym body editor

Ezeket a teljesség igénye nélkül megnézve az editor elé nyilván nem kell odabökni, hogy photo editor, természetesnek vesszük, hogy ez azért a kereső tudja.

Így is kijön néhány találat, viszont nagyon sok olyan, ami konkrét edzésterveket kínál.

A teljesen laikus megközelítés megbukott, ha itt megtorpanunk. Noam Chomsky legyen a talpán, aki meg tudja mondani, hogy még ha a fogalomrendszerünk hasonló is, egy adott témával kapcsolatos gondolkodásmódunk nyelvtől és kultúrától függően eltérhet, azaz egy spanyol, kínai vagy ausztrál, angolul hasonlóan tudó felhasználók is ugyanezeket a keresőkifejezéseket dobálták volna-e be. Alighanem nem.

Pontosabban nyilván nem, a vitákat az képzi, hogy miért. Az elgondolás persze szigorúan hipotetikus, hiszen nincs három olyan felhasználókból álló minta – spanyol, kínai és ausztrál – akinek egy az egyben hasonló lenne a gondolkodása, és csak és kizárólag az anyanyelvükben és az idegennyelv használat terén térnének el.

A témára visszatérve a body editor és a gym body editor, szinte ad hoc kitalált keresőkifejezésekkel nem voltunk túl sikeresek, viszont ha találtunk akár egyetlen appot is, ami azt ígéri, hogy valaki másnak a sörhasát vagy gebe felsőtestét hatékonyan fotoshoppolja, már kattinthatunk is “You might also like”, “Similar apps” lehetőségekre, nyilván korábbról tudja a szolgáltatás, hogy az alkalmazás iránt érdeklődő felhasználók milyen más alkalmazásokat néztek meg, valamint töltöttek le. Hogy mindezt hogyan? A társítási szabályok bányászatáról, használatáról, predikciós és osztályozó módszerekről, klaszterelemzésről és hasonló feketemágiáról hamarosan éppen blogunkon lehet olvasni hamarosan.

Visszaugorva az App Store-ba: megjelenik előttünk néhány további alkalmazás, amik tényleg nagyon hasonlítanak ahhoz, amire rátaláltunk. Ez sokat segíthet, de még mindig nem biztos, hogy éppen a leghatékonyabba fogunk belebotlani. Írtuk, számunkra minél ismeretlenebb a téma, annál nehezebben tudunk jól kérdezni, aztán ennek megfelelően hasznos információkhoz jutni, másrészt jelen esetben egy alkalmazás minél specializáltabb feladatra van kitalálva, annál nehezebb rákeresni, megtalálni.

A leírások ebben az esetben legalább olyan információértékkel bírnak, mint a screenshotok, ugyanis ezeket elolvasva botlunk olyan kifejezésekbe, amik nagyon jellemzőek a keresett alkalmazásra nézve, viszont csak a passzív, ráadásul idegennyelvi passzív szókincsükben léteznek, ezért nem jutott eszünkbe keresőkifejezésként használni őket. Szövegkörnyezetében eléggé világos, hogy mit jelent a boost kifejezés. Szövegkörnyezetében! De ha valaki korábban nem ismerte, és bedobja a Translate-be, rá nem jön, hogy ez a szó valójában mit is jelent. Amit látunk a jobb panelen, mind szótári alak:

Translations of boost
noun
túltöltés
boost, supercharge
emelkedés
climb, lift, raising, raise, uptrend, boost

verb
felemel
lift up, raise, exalt, elevate, uplift, boost
fellendít
boost
reklámoz
publicize, boost

Az értelmezés már világosabbá teszi, ekkor a tudásunkban a megfelelő helyre tesszük, bővítjük vele a saját fogalmi keretünket:

Definitions of boost
noun
a source of help or encouragement leading to increase or improvement.
the cut in interest rates will give a further boost to the economy
synonyms: uplift, lift, spur, encouragement, help, inspiration, stimulus, pick-me-up, shot in the arm
verb
help or encourage (something) to increase or improve.
a range of measures to boost tourism
synonyms: improve, raise, uplift, increase, enhance, encourage, heighten, help,

Az igen gyakran előforduló abs esetén az agyunk nem fordítja le abdominal muscles kifejezésre, hogy aztán még egy lépésben hasizommá fordítsa, ez is világos. A következő kifejezés, amivel viszont egyrészt kellően ritkán találkozunk, másrészt még inkább igaz, hogy csak környezetében van bármiféle értelme is, a pecs, ami a pectoral muscle-t jelentené. Az utóbbi érdekessége, hogy köznyelvi értelemben “új szó”, néhány évvel ezelőtt jóformán senki sem használta.

A Google Trendsből kiderül, hogy a kifejezés gyakran fordult elő olyan fogalmak keresésekor, amikor a felhasználók testépítéssel, zsírral és gyakorlatokkal kapcsolatos információkat keresnek a neten.

Az USA-beli adatoktól nem térnek el markánsan az Egyesült Királyságban mért adatok, azaz nagyon pongyolán fogalmazva, hasonló a helye a a brit és amerikai angol nyelvben.

Annak megállapításában, hogy egy mennyire új kifejezésről van szó, sokat segíthet a Google Ngram Viewer, ami pedig teljesen világos felfutást mutat.

A Trends-re és az Ngram View-re különösen igaz, hogy kellő háttérismeretet és gyakorlatot igényel, hogy megfelelő következtetéseket vonjunk le abból, amit kapunk. A Trends csak 2004-től jegyzi az adatokat, míg a Ngram Viewer a 19. század eleje óta megjelent, szinte összes könyv digitalizált szöveganyagát veszi alapul, egy-egy Ngram felfutása pedig nem jelenti feltétlenül, hogy a kifejezés gyakoribbá vált volna.

Néhány keresést követően kiderül, hogy valószínűleg mik a legjobb, valaki teljesen más céljának megfelelő mobilalkalmazások, viszont vegyük észre hogy például fogalmi osztályozást sem kellett egyedül végeznünk, annak egy részét elvégezte a a gép, ezért találtuk meg gyorsabban a valaki másnak kellő, tényleg jó alkalmazást! Természetesnek vesszük, mert a mindennapi élet részévé vált, merész kísérletezőknek viszont érdemes lehet néha benézni a kulisszák mögé.

A kulisszák mögött

Ha nem is megyünk akadémiai magasságokba, jó, ha van egy szemléletes képünk minél több olyan algoritmusról, amit újabban rendkívül megtévesztő módon a mesterséges intellgencia tárgykörébe sorolnak. Példaként emelnénk ki ismét a látens Dirichlet-allokációt ami eléggé ügyesen alkalmazva, “elolvasva” megfelelő mennyiségű szöveget, “tudni” fogja, hogy a tej, a nyávogás a macskához, míg az ugatás és a csont fogalmilag a kutyához kapcsolható. Jó adag hasonló módszer létezik még, az igazi kihívás eltalálni az adott feladatnak megfelelőt.

Az okos gépek ott vannak az élet minden területén. Ha hirtelen meg kellene mondani, hogy az artifical intelligence hogyan lett teljesen félreértett, a kelleténél gyakrabban használt buzzword, eléggé valószínű, hogy azért, mert a kimenet, legyen az bármi is, a Siri válasza vagy egy chatbot tartalmas megjegyzése, akár egy keresés eredménye, olyan minőségű, mintha gondolkozó embertől származna.

A másik súlyos félreértés, hogy a mesterséges intelligencia kutatásának célja lenne, hogy belső működésmód szempontjából minél jobban hasonlítson az emberi gondolkodáshoz, holott már a 60-70-es években rájöttek, hogy ez a csapásirány nettó ostobaság.

Amit ma sokan mesterséges intelligenciának neveznek, valójában olyan megoldások egyvelege, ami adott feladatokat tud megoldani minél jobban és gyorsabban, emberi értelemben úgy, hogy azt a benyomást keltse, mintha a gép értelemmel rendelkezne, gondolkozna.

A MATLAB-ra nem úgy gondolunk, mint a mesterséges intelligencia eszközére, pláne nem úgy, mint olyan rendszerre, ami gondolkodna helyettünk, de ha például jól formalizálva megadunk benne egy másodfokú egyenletet, azt a MATLAB, hasonlóan gyakorlatilag az összes jól formalizált egyenlethez megoldja, kiadja az eredményt, ami gyorsan ellenőrizhető is.

Ha először látnánk, akkor esetleg azt gondolhatnánk, hogy a MATLAB okosan megtanulta a másodfokú egyenlet általános megoldóképletét, aztán annak megfelelően oldotta meg. Ha erre nem volt felkészítve, akkor egyszerűen fogott egy numerikus analízisből ismert közelítő módszert, abba behajigálta az értékeket, végig nagyon-nagyon sok tizedesjegy pontossággal számolt, a végén pedig kiadta a helyes eredményt. Azaz azt a benyomást keltette, mintha értelemmel oldotta volna meg az egyenletet, holott erről szó sincs.

(Ha esetleg éppen a MATLAB már fel van készítve rá, hogy a másodfokú egyenlet felismerje, mint olyan egyenletet, amire van megoldóképlet, és azt alkalmazta, akkor elnézést.)

Lényeg, hogy az esetek többségében közelítő módszerrel kapott közelítő eredmény is megfelel, ami nem jelenti azt, hogy a numerikus módszerek mellett már nem lehetne tévedni, sőt, adott esetben nagyon durván mellé is lehet nyúlni.

Valaminek az okos megoldása nem jelenti azt, hogy a gép okos!

A másik, ami érdekes példa lehet, az automatikus tételbizonyítás, ahol az felhasználó csak formalizál, bizonyítási módszert állít be, a gép pedig bizonyít. Erről úgy gondolnánk, hogy kimondottan emberi leleményességet igénylő tevékenység.

Minden olvasót arra bátorítanánk, hogy amint egy beszélgetés közben felmerül nagy vehemenciával a mesterséges intelligencia, nézzen a beszélgetőpartnere szemébe, és kérdezze meg, hogy szerinte a felügyelt vagy a nem-felügyelt gépi tanulás jobb sok esetben, és miért. Mindkettővel kapcsolatban különböző példákon keresztül lehet érvelni amellett, hogy miért hatékonyabb az adott esetben. Ha az Olvasó még nincs képben a két fogalommal és módszereivel kapcsolatban, érdemes lehet hamarosan ismét a blogra nézni.

Mert ez az elemzés itt és most véget ért. Folyt. köv.!

Buborékeffektus: hogyan írjuk és olvassuk a webet? És hogyan kellene? 

Ez a cikk technikai és filozófiai oldalról is feszegeti a buborékeffektusnak hívott jelenséget. Leegyszerűsítve: mindenki azt olvas a neten, amivel már korábban is egyetértett, mert a gépi ajánlócuccok, legyen az egy kereső, híraggregátor, vagy egy social site, “kedveskedni” akarnak nekünk. Vajon tényleg baj-e, hogy a neten szinte sohasem futunk bele olyan tartalmakba, amik a saját világképünkkel összeegyeztethetelenek? Nos, lássuk!

netacademia_tanfolyamkereso.png

A web olvasására általános recept nincs. Viszont az ideális eszközök és források ismérvei eléggé világosak: valóban friss cikkek címeit dobják elénk, lehetőleg olyan független forrásokból, amik lényegében a hitelességükből és alaposságukból élnek, ugyanakkor figyelnek a tartalmaik előállításánál a közérthetőségre is.

Alighanem nagyon sokan nem tudják, de a világ két, jóideje legpatinásabb tudományos folyóirata, a Science és a Nature szerkesztőbizottságai több esetben Nobel-díjas kutatók cikkeit akár többször is visszadobják a cikk formába hozásához, mielőtt kiadnák. Másrészt mindkettőnél van egy olyan feltétel, amire alighanem ritkán gondolnánk. Igaz, a Nature és a Science több cikke olyan, ami nem, vagy csak nagyon nehezen érthető azon olvasók számára, akik nem kimondottan az adott szakterületen mozognak, viszont mindkettőnél az alapítása óta kőbe vésett elvárás, hogy a cikknek olyannak kell lennie, ami a tudományos közösség érdeklődésére számot tart, függetlenül attól, hogy milyen tudomány művelője.

Ennek megfelelően pattant már vissza olyan cikk is, ami aztán egy olyan munkásság része volt, amiért Nobel-díjat ítéltek oda, de a cikk túlspecializált volt, nem felelt meg az előbbi feltételnek.

A felvezető olyan módon kapcsolódik ide, hogy sajátos módon azok az online lapok élték túl vígan a dotcom-lufi kidurranását, na meg konkrétabb, sokkal komolyabb behatásokat, és maradtak a legmeghatározóbb hírforrások, amik ha nem is koppintják a Nature és a Science mintáját, nem tudományos lapok, viszont alapelveikben nagy mértékben hasonlítanak azokhoz: az olvasóközönség érdeklődésének fenntartása fontos cél.

Természetesen hacsak valaki nem végtelen sok idővel rendelkezik, vagy unalmában böngészik a neten, nem nézegethető végig az összes meghatározó portál összes rovatának összes cikkje a leaddel, erre találták ki a feedolvasókat.

Amint egy oldalon megjelenik egy új cikk, annak elkészül egy feedolvasó által olvasható kivonata, ami a legegyszerűbb esetben csak a cikk címe és URL-je, esetleg emellett a lead, ami lehet a cikk első néhány mondata. Emellett annak sincs akadálya, hogy a cikk írója egyfajta excrept-et írjon, ami esetleg nem is szerepel a szövegben, kimondottan a feedolvasónak szánt néhány szavas kivonat, ami a cikk tartalmát minél jobban leírja.

Világos, hogy a jól eltalált címadás és az első néhány mondat mekkora jelentősséggel bír, hiszen az olvasó a mai információs kavalkádban ez alapján dönt egyáltalán arról, hogy kattint-e vagy sem, akár egy hírportál webes felületén jelenik meg, akár a feedolvasóban. Sokáig többen, közülük néhányan statisztikai alapon, megint mások egyszerűen empirikus alapon azon az elven voltak, hogy a cím nem lehet hosszabb 6 szónál, megint mások erre alaposan rácáfoltak, míg a komolyabb írásoknál nem ritkák az ennél sokkal hosszabb címek sem.

A tartalomfogyasztó, aki akár kimondottan hivatásos tartalomgyáros egy szerkesztőségben, akár olyan tartalomfogyasztó, aki egy-egy szakterület híreivel kapcsolatban szeretne előbb képbe kerülni, mint a többiek, akár hagyományos újságolvasó, bizonyos értelemben egyre jobban elkényelmesedett az évek során, amiben semmi meglepő nincs, elvégre tartalommal tele a padlás, unikális tartalomból már jóval kevesebb van. Az újonnan megjelent, kimondatlan igények kielégítésére több technikai eszköz is keletkezett, amiket ha hirtelen kötelező lenne nagy, ámde nem feltétlenül markánsan különböző csoportokba lehet sorolni, a következők lennének:

  • buta hírolvasók – a feedolvasó mintájára előre összegereblyézi a híreket, de nem különösebben veszi figyelembe a tényleges tartalomfogyasztási igényeket
  • curated content – a felhasználó beállíthatja, hogy milyen Twitteres, Google Plus-os, LinkedIN-es influencerek, vagy éppen az adott szolgáltatás editor’s pick-jéből választott források kerüljenek elé
  • gépi tanulással támogatott, intelligens hírolvasók vagy híraggregátorok – a kategória nagy öregje, a Flipboard és klónjai, ami a regisztrációt követően feldob számos cikket, amiről feltételezi, hogy érdekelhet mindket, majd minden mozzanatunkat figyeli és meglepően rövid gépi tanulást követően már csak kimondottan minket érdeklő cikkeket fog ajánlani. Mondani sem kell, hogy minden ilyen megoldás több mint addiktív lehet, de más hatásai is vannak, aminek a tárgyalására kicsit később térünk vissza. Flipboard-klónból pedig ugyancsak van bőven.

A gépi tanuláson keresztül ajánlgató szolgáltatások persze annál precízebbek, minél több adattal etetik őket, azaz ők maguk minél gyorsabban indexelik az újonnan megjelent cikkeket a web minden tájáról, valamint minél több felhasználó használja őket, minél több ízléséből tudnak tanulni.

A korábban hagyományos formájában sok-sok év után kinyiffantott, majd más formában ismét megjelentetett Google Readert  kezdetben azzal támadták a legnagyobb lapkiadók, hogy a Google az üzleti érdekeiket sértik azon keresztül, hogy a Google saját felületén jeleníti meg azokat, ilyen módon tartalomszolgáltatóként jelenik meg. Nem telt bele sok idő, amikor már azért lobbiztak a legnagyobb lapok, hogy kerülhessenek fel a Google Reader/NEWS által ajánlgatott részbe valamilyen módon.

A Google Readert hiába használták napi rendszerességgel és szerették felhasználók tízmilliói, a cég a szolgáltatást a hagyományos formában ki is végezte, igaz, utána újraindította más formában. A Google által kinyírt szolgáltatások sorába tökéletesen beleillik: nem tudtak olyan mennyiségű, több köztes lépésben hirdetéstargetálásra használható információt kinyerni a felhasználók olvasási szokásaiból, ami alapján gazdaságos lett volna életben tartani a szolgáltatást, holott többek szerint ehhez önmagában csak Gmail-ből, Google Analytics-ből, Chrome-ból és a keresőből származó információk automatizált kinyerése is elegendő lenne a Google több száz szolgáltatása közül.

A Google mint sok más területen, itt is komolyan kockáztatja a hasonló szolgáltatást kínáló vetélytársainak talpon maradását. A vetélytársaknak tehát valami olyat kell villantaniuk a felhasználóik felé, amit a Google hasonló szolgáltatása éppen nem tud vagy valahogy eltérő módon tudja.

Láttunk már példát a legkorszerűbb machine learning technikákra építő szolgáltatásokra, amik nem is világos, hogy miért buktak el. Többen napi rendszerességgel használták a Prismatic-ot amibe valósággal öntötték az adatokat, a befektetők a pénzt, a legpatinásabb oldalak az egekbe magasztalták, mégsem tudott megmaradni a piacon.

Ha valaki életében először használna internetet, és mondanunk kellene valamit azzal kapcsolatban, hogy melyik oldalt nézze meg életében először, a Flipboard mellett alighanem a RightRelevance lenne az.

Némileg más logika mentén ugyan, de a Flipboardhoz hasonlóan a felhasználó ízlésére, tartalomfogyasztási szokásaira épít, másrészt meg lehet jelölni olyan influencereket, akiknek a tartalmaira biztosan kíváncsiak vagyunk.

Megjegyzendő, hogy a világ a tartalomszolgáltatás piacán globális színtéren sem igazságos: a Business Insider, a Mashable és sok-sok más news outlet szinte mást sem csinál, csak tőlük patinásabb lapoktól csen át híreket, amiket aztán hülyeségig egyszerűsít, rövidít, ennek megfelelően sokkal nagyobb olvasói bázishoz jut el, persze összehasonlíthatatlanul nagyobb árbevétellel és összehasonlíthatatlanul kisebb hozzáadott értékkel. Az egyediség, az érték és az eladhatóság gyakorlatilag sosincs egymással összhangban.

Jól ismert sajátosság, hogy a tartalomfogyasztási szokások nem nagyon változnak. A nagyon sok ok közül kiemelendő, hogy az olvasó nyilván azokat a forrásokat fogja preferálni, amik egybehangzanak a véleményével, mi több, megerősítik egy témával kapcsolatos hitében, ilyen módon az önképében is. Természetesen nem csak politikai tartalmakról van szó. Ez az egyszerűsített magyarázata annak is, hogy a legelborultabb konteók, mint amilyen a lapos Föld hívők  vagy éppen az oltásellenesség miért tartja magát olyan stabilan.

Azaz javarészt olyat olvasunk és nézünk, amivel általában egyetértünk, ez viszont bizonyos értelemben buborékba, méghozzá minden korábbinál áttörhetetlenebbnek tűnő intellektuális buborékba zár minket, és persze az újonnan megszerzett információk befolyásolják a vélekedésünket nemcsak egy adott terület kapcsán, hanem olyan területeken is, amire nem is gondolnánk. (A jelenséget egyébként először a netes kereséskor észlelték és kezdték kutatni.)

Példaként egy igen szűk szakterület magasszintű képviselői közt sincs egyetértés abban, hogy Edward Snowden inkább hős vagy inkább hazaáruló. De a jelenség megfigyelhető olyan területeken is, amik úgymond sokkal kisebb mértékben hitkérdések, hanem akár tisztán szakmai kérdésnek tűnnek, ahol látszólag nincs helye egymásnak szögesen ellentmondó véleményeknek. Ha valaki rendszeresen arról olvas, hogy a Java-s technológiák jobbak összességében, mint a C#-on alapulók, sokkal inkább fog hajlani arra a véleményre, hogy a Java alkalmasabb valaminek a megvalósítására, amikor valójában nem.

Az elmúlt néhány évben totálisan feje tetejére állította a biotechnológiát és a molekuláris biológia egészét a CRISPR/Cas9 technika, amivel lényegében ugyanúgy génmanipuláció végezhető, mint számos más módszerrel, viszont a korábbiakhoz képest sokkal pontosabban, gyorsabban és olcsóbban. Olyannyira, hogy a világ biztonságáért felelős csúcsszervek korábban  és nemrég ismét összeültek a lehetséges kockázatok elemzésére, amit a piac is megérzett, de ahhoz sem kellett sok idő, hogy megszülessenek az első gyerekek, akiknek a génállományába még embrionális korukba nyúltak bele, így megelőzve egy súlyos megbetegedést.

Ez utóbbi azért sajátos, mert az emberi génállományba való beavatkozás a világ minden országában nagyon súlyos bűncselekménynek számít, hacsak nem gyógyászati célú. Gyógyászati cél ide vagy oda, korábban kivételszámban fordultak elő az olyan esetek, amikor ivarsejtek, egy születendő vagy már felnőtt beteg testi sejtjeinek génállományát próbálták megváltoztatni, és sikerrel is jártak.

A CRIPSR-technika olcsósága és egyszerűsége miatt felmérhetetlen lehetőségek nyíltak meg, ennek megfelelően logikus lenne arra gondolni, hogy erre tér át mindenki, ehhez képest viszonylag lassan kezdték-kezdik alkalmazni a gyakorlatban, különösen az alapkutatásban. Ez pedig aligha vezethető vissza arra, hogy a biológusok inkább használják az általuk már megszokott, jól bejáratott módszereket. Ugyan minden racionális érv amellett szól, hogy a kőbalta helyett a kalapács az alkalmasabb, a megszokások mégis lassan változnak.

Egy lehetséges magyarázatunk az, hogy tengernyi mennyiségű cikk jelent meg azzal kapcsolatban, hogy az új módszer mekkora kockázatokat rejthet, ha azt konkrétan terroristák kezdik el használni. Ha pedig egy-egy biológus jókora dózisú cikket olvasott a témában, ettől aligha tud teljesen elvonatkoztatni, még ha racionálisan úgy is gondolja, hogy igen.

Akár egy intelligens híraggregátort használunk, akár egy buta, de user friendly hírolvasót, szükségszerűen buborékba zárjuk magunkat. A feedolvasónál eléggé világos a helyzet: kézzel válogatjuk be azoknak a lapoknak a rovatait, aminek az újonnan megjelenő cikkeiről azonnal szeretnénk értesülni, nem szeretnénk lemaradni semmi fontosról. Ugranak fel ugyan olyan címek is, amikről feltételezzük, hogy a mögöttük lévő írás minket kevésbé érdekel, ezért nem kattintunk rá. De lényegében egy véges számú hírforrás fogja alakítani tehát nemcsak a tájékozottságunkat, hanem a szakmai véleményünket és a világról alkotott véleményünket is!

Az intelligens híraggregátoroknál némileg más a helyzet, hiszen elénk kerülhet olyan webhely is, ahol esetleg korábban még egyáltalán nem jártunk, de alkalomadtán éppen ott lelünk valamilyen igencsak értékes információra.

Ennek a posztnak a szerzője nem ritkán be szokta dobni, hogy a civilizáció motorjának egyik kulcseleme volt maga az egyet-nem-értés. Viszont most egy szingularitással kell szembenéznünk, lévén, hogy a mindket érintő információ egyre nagyobb arányban kerül a webre, ami önmagában első olvasásra nettó közhely. Ha néhány évtizeddel ezelőtt ment be valaki a munkahelyére, véletlenül belehallhatott két hajléktalan beszélgetésébe, miközben reggelit vett az utcai büfében, esetleg szóba elegyedett a villamoson valami kapcsán teljesen idegen emberekkel, amik apróságoknak tűnnek ugyan, valójában ez tette lehetővé, hogy megkerülhetetlen és spontán módon olyan információkhoz jusson, olyan gondolkodásmóddal találkozzon, amitől ma szinte biztos, hogy elesne.

Manapság, hacsak valaki nem hivatásszerűen foglalkozik külöböző emberekkel napi rendszerességgel, szinte az összes információ a net felől jut el hozzá. Emellett sokkal nagyobb arányban olyan személyekkel érintkezik bármilyen módon, akik hozzá hasonló elveket vallanak, tudáshalmazzal rendelkeznek. Egy-egy közösségbe tartozó emberek még jobban fognak hasonlítani egymásra, mint korábban bármikor, aminek a következményei sokkal messzebbre mutatnak, mint elsőre tűnik. Mivel technológiai szingularitásról van szó, a jövőbeli hatásáról semmit sem tudunk, leszámítva azt, hogy a jelenség alól senki sem vonhatja ki magát.

A különböző csoportosulások közti információáramlás korábban sem volt kimondottan jellemző, a szociológusok által szegregációnak nevezett jelenséget már alaposan darabokra szedte a hálózattudomány.

Nem nehéz belátnunk, hogy egy módosabb elitgimnázium diákja korábban is sokkal kisebb valószínűséggel került bármiféle kapcsolatba egy szegényebb sorból származó, gyengébb középiskolába járó tanulóval, ami megteremtette volna a lehetőségét annak, hogy az elitgimnázium tanulója megismerje a másik gondolkodásmódját, megismerjen egy, számára addig nem látható világot. Azután ennek megfelelően alakuljon a szociális érzékenysége, közben pedig a merőben eltérő kultúrális és intellektuális környezetben élő másik fél impulzusokat kapjon azzal kapcsolatban, hogy hogyan alakítják az életüket azok, akik később magasabb társadalmi státuszra számíthatnak, és mindenre, ami ezzel jár.

Az ilyen, izolált szigetek közti információs átszivárgást nevezik a hálózat-szakik perkolációs pontoknak is.

Ahogy a net használatával mindenkinek az egyéni buborékja és az őt környezető ismerősei buborékja is egyre rigidebb lesz, érthető, hogy drámaian csökken az információ átszivárgásának még az elvi lehetősége is, a témát egyébként már egy korábbi posztban érintettük.

A korábbi posztban is szóba került talán, hogy látszólag paradox módon minden lehetőségünk meglenne ahhoz a net korában, hogy alaposan tanulmányozzuk egy-egy, kimondottan gazdagok vagy mélyszegénységben élők jellemzőit szinte mindenre kiterjedően, kapcsolatba léphessünk velük, stb. Világos, hogy életszerűtlen, hogy szóba elegyedjünk valamilyen webkettes felületen csak úgy az ország túloldalán lévő, sokkal kevésbé iskolázott felhasználóval. Ahogy annak az esélye is nagyban csökkent, hogy akár egy másik kontinensen élő milliárdossal lépjünk kapcsolatba spontán módon.

Az egyének és közösségek különbözősége volt a civilizáció hajtómotorja. Most is az. Ideértve a tudományos diskurzusokat, egy szervezeten belüli vitákat és persze a legkülönbözőbb okra visszavezethető háborús összecsapásokat.

Az egyének és a közösségek eltérőek voltak ugyan egymástól, viszont közel sem olyan mértékben, mint most! Az ezzel járó jövőbeli hatásokra, azok határsaira pedig senki sem lehet felkészülve. Ami tudott, hogy a társadalmi rendszerek stabilitását nagyban veszélyezteti, ha az ideológiai, politikai, intellektuális, értékrendbeli, stb. eltérések egy bizonyos szintűnél nagyobbá válnak.

Nem véletlenül az egyik legkomolyabb kihívás az exobiológusok és a döntéshozók számára kidolgozni arra egy forgatókönyvet, hogy hogyan kellene eljárni olyan esetben, ha a Földre tévedne valamilyen korábban nem ismert intelligens életforma az univerzumból – jelentsen bármit is az, hogy “intelligens”, na meg “civilizáció”. Mert semmilyen tárgyilagos kiindulópont nem lenne azzal kapcsolatban, hogy hogyan kellene viselkedni ilyen helyzetben.

exobiologia.png

Mindenki, akinek van valamiféle képe a buborékeffektusról, egyvalamiben biztosnak kellene lennie: hogy nem húzhatja ki magát a hatás alól. Másrészt érdemes úgy összeválogatni az érdeklődésének megfelelő, napi rendszerességgel használt forrásokat, hogy azok minden szempontot nézve minél kevésbé legyenek egyoldalúak, ugyanakkor minimalizálni szeretnénk az információs zajt.

Feedolvasóból annyi van, hogy azzal aztán tényleg BIX-et lehetne rekeszteni. Ahogy az más területen is megfigyelhető, itt sem feltétlenül a legelterjedett a legjobb. Hogy melyikre esik a választásunk, nem kis mértékben függ az áttekinthető UI/UX-től, függetlenül attól, hogy asztali gépes, tabletre vagy mobilra szánt változatról van szó.

feedly_legjobb_feed_olvaso

A gondolkodó paranoiája….

Nem kell különösebben elmerülnünk az összeesküvés-elméletekbe, de az intelligens híraggregátorok esetén sosem lehetünk benne biztosak, hogy azok kisebb vagy nagyobb mértékben valamilyen módon nincsenek-e manipulálva, valóban függetlenek-e. Közel sem triviális megállapítani, hogy egy-egy híraggregátor szolgáltatás mögött milyen üzleti, esetleg politikai érdekek rejtőzhetnek.

Vagy éppen a Google! Már megint. Alaposan beleásva magunkat a web történetébe arra juthatunk,  hogy a Google pusztán hirdetésközvetítő cég, mert még akkor is ezt találjuk a láncolat a különböző ingyenesen használható szolgáltatásaik végén, amikor végképp nem számítanánk rá. A web giantek társadalmi felelősségével kapcsolatban számtalan ostoba és kevésbé ostoba vélemény jelent meg, amik közül kettőt emelnénk ki. Nem is olyan rég történt, hogy a normális ember által aligha olvasott Daily Stormer lapot a Twitter, a Facebook, a Cloudflare, a GoDaddy és az összes hosztingszolgáltató után a Google is kirúgta az indexből való teljes eltávolítással. Ha pedig valaki a revenge porn kifejezésre keres rá, nem bosszúpornó oldalakat kap találatként, az teljesen biztos.

Egy pillanatig se felejtsük el, hogy mindezt a véleményszabadság mintaállamában, az USA-ban lépték meg, anélkül, hogy erre törvényileg kötelezték volna a céget! Nagyon nehéz kérdés, hogy a kőkeményen törvénybe ütköző, akár uszító tartalmak ellen fel kell-e lépniük a tech cégeknek, ha pedig igen, akkor hogyan. Többek közt azért, mert a szólásszabadság lényege, hogy bármikor visszakereshető legyen, hogy kik mennyire idióta, igazságtalan, beteg, kártékony tartalmat terítettek a neten, aztán ennek megfelelően lehessen őket megítélnie a többségi társadalomnak.

Azt, hogy a különböző dehumanizáló tartalmak vagy a bosszúpornó ellen bölcs dolog-e fellépniük a legnagyobb keresőmotoroknak, e cikk írójában már a Debreceni Egyetem katedráján is felvetődött. Az előző indokláson túl azért, mert paradox módon ezzel hosszú távon több kárt tehetnek, mint amennyivel biztonságosabb hellyé teszik a netet, jelensen a biztonság bármit is.

A hallgatók nagyon gyorsan megértették, hogy a kétezres évek derekán megjelent szórakoztató, másrészről gyűlöletbizniszben utazó oldalaknak, ahol kidobott exek küldtek be és tettek közzé képeket a volt párjukról – hogy is mondjuk – a legkülönbözőbb testnedvektől átitatott képeknek egyfajta népnevelő hatása is volt. Nyilván nem szándékoltan. Ha a 14 éves Pistike azt látta, hogy a 21 éves Móricka nővére hagyta magát lefotózni egy száll semmiben, Pistike, ha volt egy kis esze, egy életre megtanulta, hogy őt soha, senki ne fotózza le olyan helyzetben, amilyen helyzetben nem szeretné a neten viszontlátni önmagát, hogy aztán rajta röhögjön az egész falu heteken keresztül.

Csak sejtéseink lehetnek azzal kapcsolatban, hogy a magyar törvények által végülis üldözendő tartalmak miatt miért nem léptek fel sosem különösebben. Ami viszont biztos, hogy ezek az oldalak, még ha gyomorforgatóak is voltak, de mindenképpen népnevelő szerepet töltöttek be, a netezők kevésbé buta része megtanulta, hogy nem az a kérdés, hogy egy fotó, amit valaki készített, kikerül-e a netre, hanem az, hogy hogyan, mikor, miért, kitől. Egyszóval a néhány évvel fiatalabb generáció elővigyázatosabb, ha a magánszférája védelméről van szó, ami nem a technika, nem is a jog eszközei miatt alakult így, hanem mert az internet alaptermészete erre szocializálta őket.

Arról viszont szó sincs, hogy bármelyik webes óriás is pusztán jófejségből küzdene az elfogadhatatlannak tartott tartalmak ellen. Ha a Facebookon, amire 13 éves kort betöltve bárki regisztrálhat, mindenféle, a dark webről előhúzott állatkínzásos és kivégzős tartalmak jelennének meg és maradnának fenn, a Facebookot nem az érdekelné, hogy mindez egy 13 éves gyerek fejlődésére veszélyt jelent, az már sokkal jobban, ha a szülők emiatt eltiltanák a gyereket a szolgáltatás használatától, aminek következményeként a hirdetők máshova mennének hirdetni, ezzel sokmilliárd dolláros veszteséget okozva a cégnek.

A Google-nél teljesen hasonló a helyzet: a hirdetők nem hirdetnének olyan helyen, aminek a keresőfelületén keresztül olyan tartalmak jelennek meg, amik a legfinomabban fogalmazva a nyugalom megzavarására alkalmasak. A Google tehát odacsap, nem is kicsit és alighanem csak a jéghegy csúcsát látjuk ennek.

Ezek fényében kérdéses, hogy a Google és a Facebook karitatívnak kikiáltott lépései mennyire tekinthetők őszintén karitatívnak.

Az viszont nagyon valószínűtlen, hogy a Google hírolvasó szolgáltatása teljesen mentes legyen a részrehajlástól, ami persze gyakorlatilag bizonyíthatalan. Ha egy mobilok iránt intenzíven érdeklődő felhasználóról van szó, aligha történik közvetlenül olyan, hogy azokat a cikkeket, amik az Androidot szidják, háttérbe szorítsa a hírolvasó. Nem. Ennél sokkal kifinomultabb módszerek viszont már valószínűsíthetők, amik lényege, hogy amit a felhasználó lát, a Google brandjét erősítsék.

Általánosságban tényleg nem lehet nagyon mit mondani azon túl, hogy ha kicsit ki szeretnénk látni a saját buborékunkból, időnként keressünk fel olyan forrásokat is, amik alapvetően olyan tartalmakat terítenek, amivel akár egyáltalán nem értünk egyet, de így legalább lehetőségünk nyílik rá, hogy például a legvadabb ideológiák milyen belső logika szerint szerveződnek. Azt pedig főleg érdemes elkerülni, hogy mindig csak ugyanazokat a szolgáltatásokat használjuk. Könnyen lehet, hogy egy adott felületen egy átvett, lebutított cikk hivatkozik olyan forrásra, amire átkattintva számtalan hasznos információt találhatunk.

Szó sincs róla, hogy kiszolgáltatottak lennénk a dezinformációval vagy manipulációval szemben. A cikk jórészt holisztikusan közelítette meg a web és a civilizáció kapcsolatát, azonban ne felejtsük el, hogy mennyi online is elsajátítható tudás és eszköz áll rendelkezésre ahhoz, ha ki szeretnénk szúrni, kutatni szeretnénk a dezinformációt vagy utánanéznénk egy-egy kétes szolgáltatás működésének. A teljesség igénye nélkül:

  • a fejlesztés terén – a kódolási stílus ugyan kisebb mértékben, de hasonlóan eléggé egyedi, mint amikor valaki természetes nyelven fogalmaz meg valamit – valaki minél több forráskódot látott, belekóstol a nyelvtechnológiába is, annál nagyobb eséllyel szúrja ki, ha két oldal üzemeltetője közt kapcsolat van
  • a legtágabb értelembe vett e-commerce lehet szakszerű és etikus egyszerre, szintén nem megtanulhatatlan
  • az üzemeltetés terén – a DNS és a historikus DNS aranybánya, nem véletlenül. Senkinek nem adnánk tippeket, de annyit elárulunk, hogy valaki hiába használ whois masking-et egy webhely domainjénél, és dugja a teljes webhelyet az első pillanattól Cloudflare mögé, számtalan esetben tisztán technikai úton akkor is azonosítható marad.

Azaz: tanulni érdemes! Az online tanulás lehetősége pedig mindenki számára adott. A blog történetében először közvetlenül linkeljük a NetAcademia tanfolyamkeresőjét, ami számos érintett területet lefed.

kép: triarchypress.net

Kétlépcsős hitelesítés céges környezetben: elmélet és gyakorlat

ket-lepcsos-hitelesites.jpgEgészen hiteles, ugyan hatásvadász videó jelent meg nemrég a Youtube-on arról, hogy az USA elnökeit a Secret Service milyen elborult módon védi.

Ma már nem meglepő, hogy az olyan biztonsági intézkedéseket, amik már kötelezőek, szinte mind csak azt követően vezették be, hogy már bekövetkezett a baj korábban: például a Kennedy, aztán pedig a Reagan ellen irányuló merénylet után.

A rendszeradminisztráció területén általános tapasztalat, hogy céges security awarenes programok ide vagy oda, sokszor igen nehéz elérni azt, hogy az alkalmazottak tartsák be a jelszavakkal, azonosítással, megosztásokkal és egyebekkel kapcsolatos ajánlásokat vagy konkrét, company policybe foglalt szabályokat.

Szinte nem telik el hét, hogy ne jelenne meg hír valamilyen komoly breachről, amiben ráadásul olyan szervezetek érintettek sokszor, amikről a legkevésbé gondoltuk volna. Ki gondolta volna, hogy az IT security tanácsadás egyik flagshipjét, a Deloitte-ot olyan támadás éri, aminek következtében a támadó több millió emailhez férhetett hozzá, ráadásul az adminnak nem volt bekapcsolva a megfelelő helyen a kétlépcsős hitelesítés és persze nem kevés idő telt el, mire egyáltalán észlelték a sikeres betörést.

Nem taglaljuk, hogy mára tényleg bárki lehet célzott támadás áldozata, amit ideális esetben időben észlel és tud kezelni, akár végfelhasználóról, akár hypervisorról van szó.

Jól ismert, hogy sokszor a NIST jelszavakkal kapcsolatos ajánlásainak megfelelő jelszavak  használata ide vagy oda, ezek még mindig nem jelentenek megfelelő védelmet. Hiszen gondoljunk csak bele, hiába fut valakinek a gépén az AV-comparatives által legjobbra értékelt security suite, ellenőrizhetetlen, hogy a belépéshez használt jelszavát nem használja-e esetleg máshol is, nincs-e esetleg a gépére keylogger telepítve, amit az AV termék nem szúr ki.

Amiről pedig szinte sosem esik szó: ma már annyit helyet figyelnek biztonsági kamerák, hogy egyáltalán nem életszerűtlen egy olyan eset, amikor valaki például egy konferenciateremben beírja a jelszavát, amit a kamera rögzít, majd a kamera által rögzített felvételhez illetéktelen fér hozzá, ha pedig szerencséje van, konkrétan úgy le tudja lesni a begépelt vagy tableten tapogatott jelszót, mintha a háta mögül leskelődött volna.

Nincs mese, kétlépcsős hitelesítésre szükség van, kötelező jelleggel, ahol csak lehet, ágazatszerinti bontásban egészen jó kis gyűjtemény itt találunk azokról a helyekről, ahol bevezették.

De mi is az a 2-FA? Mindenféle tudományos blabla nélkül arról van szó, hogy a hagyományos bejelentkezést (név+jelszó) kiegészítjük egy olyan adat bekérésével, amit a felhasználó sem tud, hanem ott helyben meg kell kapnia. Ilyen például a bankok által kiküldött hitelesítési SMS-kód. Az alapeljárást persze ezerféleképpen, és ezerfélye kütyüvel lehet túlbonyolítani, a lényeg csupán annyi, hogy a hitelesítéshez nem elegendő az az információ, ami a felhasználó fejében van, mindenképpen kell valami (más forrásból származó) adat is.

PasswordPostIt_Sized_79937w1280h820Könyen belátható hogy ilyen környezetben még a sárga post-ittel a monitorra kiragasztott jelszó esetén sem teljesen reménytelen a hozzáférési rendszer fenntartása, mivel a jelszó önmagában nem elégséges a rendszer meghódításához.

A 2-FA kötelezővé tétele megvalósítás szempontjából egy konkrét szervezetnél már egy keményebb dió. A CISO-nak megfelelő kommunikációval meg kellene értetnie a szervezet tagjaival, hogy erre tényleg elengedhetetlenül szükség van. Persze előfordulhat, hogy magyarázat és elrettentő példák ide vagy oda, még ezt követően is lesz olyan, aki szükséges rossznak fogja tartani az egészet, nem pedig olyan változtatás bevezetéséről, amivel nem lehet tovább várni, mert legrosszabb esetben akár a céges adatvagyon nem kis része is veszélybe kerülhet nélküle.

Ami a biztonságtudatosságot fokozó programokkal kapcsolatban egy számunkra feledhetetlen történet, egy európai pénzintézet esete. A szóban forgó pénzintézet néhány alkalmazottját egy etikus hekkelést és auditot végző cég támadója felhívta, majd közölték velük, hogy karbantartást végeznek, ezért mindenkinek a jelszavát újra be kell állítani. Ember nem gondolná, hogy ilyen évtizedes csalásnak van, aki bedől, főleg egy pénzintézet esetén.

A támadó még csak nem is a jelszavát kérte el az áldozatoknak, mivel az túl gyanús lett volna: ehelyett arra kérte őket, hogy a jelszót állítsák be egy bizonyos értékre. A tesztelt felhasználók több, mint 80%-a (!!) ezt meg is tette, teljes hozzáférést adva ezzel a támadónak.

Az eredmény a cég CISO-ját is alaposan meglepte, majd a pénzintézeten belül az alkalmazottaknak bemutatták, hogy mennyire könnyű hozzáférést szerezni más fiókjához, a biztonságtudatosságot fokozó képzés pedig elengedhetetlen.

A tréningen nemcsak, hogy részt kellett vennie szinte mindenkinek, hanem utána még egy mini vizsgát is kellett tenniük abból, amit a tréningen hallottak. Egy esetből csak-csak megtanulták a leckét, nem?

Fél évvel később ugyanennél a szervezetnél az etikus hekker cég próbálkozott ugyanazzal a támadással, kéretik’ kitalálni, hogy a biztonságtudatossági tréningen részt vett és vizsgázott alkalmazottak mekkora része volt ugyanúgy átverhető, és ismét a támadó által megadott jelszót állította be! Még így is közel 30%-uk! A magyarázat, hogy vizsgáztak belőle ugyan, de nem vált a napi rutinjuk részévé, hogy ilyenre legyenek felkészültek, amit a tréningek valamilyen ismétlésével lehet elérni.

A témát sokszor még a biztonságtudatosabb felhasználók is elintézik annyival, hogy “a zemberek hülyék, nem lehet velük mit kezdeni”. Ami sarkítva igaz ugyan, de a támadás kifinomultságától függően sokszor még a biztonságtudatosabb felhasználók sem megtéveszthetetlenek, másrészt ha már kizárni nem lehet egy-egy breach-t, megvannak rá a technikák, amivel nagyban megnehezíthető a támadó dolga, erre egy kézenfekvő megoldás a kétlépcsős hitelesítés. (Megjegyzem, látszólag paradox módon előfordulhat, amikor éppen hogy csökkenti az effektív biztonságot a 2-FA.)

Nagyon megbízható megoldásnak tűnik a passwordless authentication, amit bárki kipróbálhat, miután létrehoz egy Yandex-fiókot. Az azonosítás ezen típusának bekapcsolásakor le kell töltenünk a Yandex Key mobilappot és be kell állítanunk egy alkalmazás PIN-t hozzá. Amikor pedig belépnénk a Yandex-fiókunkba, a felhasználói név megadása után a Yandex nem jelszót kér, hanem kidob egy QR-kódot a képernyőre, amit a Yandex Key mobilappal be kell olvasni, miután a mobilunkon megadtuk a helyes PIN-t.

Abban az esetben, ha helyes PIN-t adtunk meg, beolvastuk a QR-kódot, a Yandex szépen be is enged. Ha viszont a támadó ellopta az áldozat mobilját és fel is oldotta, hiába van nála a mobil, rajta a beállított Yandex Key alkalmazással, a mobilon a helytelen PIN megadása után hiába olvassa be a képernyőn megjelenő QR-kódon, a Yandex nem fogja beengedni.

Ami pedig külön trükkös megoldás benne, hogy a Yandex semmilyen információt nem ad arról, hogy az azonosítás miért hiúsult meg. Azért, mert a támadó a PIN-t helytelenül adta meg, vagy az áldozat gyorsan lépett és letiltotta a Yandex Key segítségével való bejelentkezés lehetőségét egy olyan eszközön, amin már be volt jelentkezve vagy mi is történt ténylegesem.

Ha nincs jelszó, nincs mit ellopni! A Yandex ugyan hasonlóan az Authy-hoz, nem pontosan aszerint a HOTP vagy TOTP séma szerint működik, mint a jól ismert Google Authenticatior, Microsoft Authenticatior vagy a Duo Mobile, nyilván az utóbbiak lesznek egyre támogatottabbak, ezeket szükséges bevezetni amint csak lehetséges.

Egyrészt silver bullet nyilván nincs. Másrészt olyan szolgáltatások is támadhatóak maradnak, amiről aztán tényleg ember nem gondolná, ahogy arról korábban a Google kapcsán jelent meg poszt.

Viszont az aktuálisan legjobb, ténylegesen bevezethető megoldások bevezetésével és a biztonságtudatosság fokozásával a biztonság elfogadható szintűre növelhető.

kép: CSOonline

Nyelvek, keresők, mesterséges intelligencia vs egy-egy keresőkifejezés értékének mérése

termeszetes-nyelvfeldolgozasSokakban máig tartja magát a hiedelem, hogy bizonyos keresőkifejezésekre kapott találatok sorrendje a legfontosabban olyan szempontból – főleg marketinges logika szerint – hogy a lehetséges vásárló vagy ügyfél mennyire könnyen talál az adott oldalra. Mára azonban a kép ennél sokkal árnyaltabb. Elemzésünkben bemutatjuk, hogy a keresőrobot valójában már sokkal inkább egy igényes és tájékozott húsvér olvasó, sokkal több már, mint ügyesen kombinált algoritmusok szinergikus együttműködése.

Nem ritkán egyenesen hiba arról beszélni, hogy egy-egy kifejezésre keresve a mi tartalmunk hanyadik találatként adódik, ha ezt nem vetjük össze sok-sok más tényezővel.

Ahogy szoktunk, ugorjunk kicsit vissza az időben, mondjuk úgy Ádámig-Éváig. Szergej Brin és Larry Page Pagerank-algoritmusa hatékony volt a web hajnalán, amikor még nagyságrendekkel kevesebb különálló dokumentum, hogy precízek legyünk, külön-külön dokumentum vektortérrel rendelkező tartalom volt jelent információként a weben. Az algoritmus egyrészt a tudománymetriában máig használatos módszerből merített, csak éppen nem tudományos publikációk vagy szerzők, hanem weboldalak vonatkozásában mérte egy-egy webhely fontosságát.

Ennek szemléltetésére tekintsünk egy gráfot vagy részgráfot, amiben a gráfpontok egy-egy dokumentumnak felelnek meg, a kiindulási állapotban pedig a gráfpontok közti kapcsolatok egyenértékűek, azaz minden gráfpont ugyanolyan fontosságú, egyenlő rankkel rendelkezik. Abban az esetben ha egy dokumentumra már több dokumentum hivatkozik (ha úgy tetszik, több a befelé mutató él), minél több befelé mutató hivatkozás van, a dokumentum rankje annál nagyobb, azaz, annál nagyobb hatású, akárcsak a sok független idézővel rendelkező tudományos publikációk a kutatás világában.

Belegondolva logikusnak tűnik, hogy valószínűleg azért hivatkoznak sokan egy dokumentumra, mert annak az információértéke sokkal nagyobb, mint a többié, így a kereső a többi előtt fogja dobni.

Az eredeti Pagerank-algoritmus persze a gyakorlatban egyszerűen kijátszható volt, ezért el is kezdték finomítani, mára pedig nemhogy egy-egy dokumentum bármiféle azonos értékkel indulna, hanem a kifinomult keresőmotorok több ezer egyéb tényezőt vesznek figyelembe, amikor eldől, hogy hanyadik találatként kapjuk a kereséskor.

A viszonylag korai webhelyeken is használtak kimondottan a keresőmotoroknak információt szolgáltató meta-adatokat. Nagyon nem volt mindegy, hogy a dokumentum szövegében egy-egy kifejezés milyen gyakorisággal fordult elő egyrészt a teljes dokumentumhoz, az őt hosztoló wbehelyhez, valamint a neten fellelhető összes indexelt dokumentumhoz képest, ami a legegyszerűbb kvantitatív nyelvtechnológiai algoritmusok egyikével, a term frequency–inverse document frequency számításával nagyon gyorsan megállapítható. A TF-IDF modell az egyik legegyszerűbb, amivel kiszámítható egy dokumentum egyedi volta, ami természetesen nem mindig áll összhangban a benne hordozott értékes információ mennyiségével, mivel egyszerűsítve lényegében egy primitív alkalmazott statisztikai módszer.

ai-nyelveszet.png

Mióta keresés létezik, azóta létezik SEO és SEM, aminek kezdetben is az volt a lényege, hogy néhányan azzal próbáltak keresni, hogy megpróbálták ügyesen vagy kevésbé ügyesen manipulálni az őket felkérő ügyfél webhelyének rankjét. Ennek egy gyakori módja a kulcsszavakkal való trükközés volt azzal a céllal, hogy az megtévessze a keresőmotort, de az ilyen manipulációval végzett kísérleteket a keresőmotorok nagyon gyorsan észlelték, és nemhogy előbbre sorolták volna az oldalt, hanem a maguk módján akár büntették is, akárcsak ma.

Nem gondolnánk, hogy a mai napig van olyan ember, aki komolyan úgy gondolja, hogy néhány metaadat és a dokumentum kulcsszavainak művi felszaporításával, a befelé mutató linkek számának mesterséges növelésével és hasonlókkal meg lehet téveszteni a keresőmotorokat. Az AdWords és AdSense nem eléggé elővigyázatos beállítása pedig csak súlyosbít a problémán, mert még gyanúsabbá teszi az oldalt a Googlebot számra. A kétbalkezes trükközgetés a 90-es évek módszere, de akkor sem volt hatékony. Nemcsak, hogy a mai napig vannak olyanok, akik csak ilyen módszerekben tudnak gondolkozni, természetesen olyanok is vannak, akik bízva a “szakértőkben” mindezért még fizetnek is, nem is keveset.

Természetesen nem arról van szó, hogy az AdWords és az AdSense alkalmatlan eszköz lenne, viszont elegendő néhány óvatlan kattintás, és a korábban pénzzel előrébb hozott találat később épphogy hátrébb sorolódik. Mi több, komoly online marketinges források szerint a Google és a Facebook hirdetési rendszerei idővel többet fognak kérni ugyanazért a helyezését, ha ismét aprópénzért próbálná valaki előtérbe tolni ugyanazt a tartalmat. Azaz tapintatosan, de kényszerítik a hirdetőt, hogy náluk költsön.

A legnagyobb keresőmotorok már a 2000-es évek első felében elkezdtek úgy viselkedni, mint egy művelt tartalomfogyasztó (a kivételekre kitérünk később), akit ugye contentless hülyeségekkel lehet a legjobban felidegesíteni, ugyanakkor nagyra értékeli a valóban értékes tartalmakat.

Az azóta eltelt közel 20 évben pedig a keresők gépagya gazdasági szempontból elsősorban a számítási kapacitás növekedésével és költségének csökkenésével, technológiai szempontból pedig elsősorban az egyre nagyobb mennyiségű információ hatására lett egyre kifinomultabb. Az, hogy elsősorban itt nem fölös’ szóismétlés, számtalan tényezőt tudnánk még sorolni, ami a kereső-ökoszisztéma mai formáját kialakította.

spamdexing

Márpedig ha valaki megpróbál túljárni a kereső eszén akár az organikus elérések befolyásolásával, akár az AdWords/AdSense használatával, gyakorlatilag csak rosszul járhat. Hosszú távon teljesen biztos.

Amennyiben valaki nem gondolkozik AdWords-ben és AdSense-ben, hanem “csak” linkfarmot épít például, a keresőmotor felismerheti, hogy valószínűleg egy ócska manipulációról van szó, és a szóban forgó dokumentum annyira sokadik helyre kerül a találati listán, mintha gyakorlatilag nem is létezne. Kereséskor még kimondottan a dokumentumra jellemző kulcsszavak hozzáadása mellett is csak a sokadik lesz. A leginkább kirívó esetekben pedig csíp a Google Penguin vagy épp harap a Google Panda utóda, esetleg ezek utódai.

Ekkor a dokumentum valamennyi ideig kikerül a találatok közül, esetleg úgy, hogy egy ideig felé sem néz a keresőmotor és nem is lehet rávenni, hogy térképezze fel ismét a tartalmat. A tág értelemben vett tartalmat. Ez lehet több, önálló webhelyből álló lapcsalád, egy webhely vagy egy webhelynek egy adott oldala.

Ugyan fordult már elő, hogy rövid időre sikerült megtéveszteni a keresőt, a search engine poisoning-nek pedig hasonló, csak éppen underground szakirodalma van, hasonlóan az ilyeneket megfékező nyelvtechnológiai fegyverarzenálhoz. A nagy keresők naponta több tízmillió (!!) találatot távolítanak el az indexükből.

Néhány bekezdéssel korábban nem véletlenül írtuk a dokumentumok osztályozásával kapcsolatban, hogy “valószínűleg” juthat arra a szomorú sorsra. Ugyanis mindegy, hogy a data science melyik területéről van szó, végülis az összes gépi tanulási, mintázatfelismerési és hasonló csoportba tartozó algoritmusnál arról van szó, hogy a lelkét mindegyiknek alapvetően a nagyon nagy adathalmazokon végzett statisztikai eljárások jelentik.

Ezek pedig bizony kis valószínűséggel ugyan, de tévedhetnek is. Külön posztot érne meg, hogy a több évtizede kitalált, már évekkel ezelőtt is gépre implementált megoldásokat hogyan lett nagyon-nagyon divatos AI-nek nevezni, főleg azok részéről, akik a legelemibb informatikai algoritmus lényegét sem tudnák elmagyarázni egy általános iskolás gyereknek, a poszt tárgya most nem ez.

A keresésnél a gép tehát valószínűségekben gondolkodik. Igen, mondhatjuk pongyola módon, hogy gondolkodik, amíg jobb kifejezés nincs rá. Több analógia figyelhető meg a nagyon sok adaton alapuló gépi tanulás és az ember tanulással kapcsolatos kognitív és emlékezeti folyamatai közt. A poszt szerzőjének egyik kedvenc területéről, a kognitív pszichológiából hozunk példát – már megint.

A kisgyermekkortól a tanulási folyamat egy lényegi része, hogy az ember a számára tapasztalható információkat osztályozza, később pedig ez az osztályozás teljesen elengedhetetlen részévé válik a gondolkodásnak. Tételezzük fel, hogy a posztot tollal írom papírra. Ahogy most ránézek a kedvenc töltőtollamra, az jut eszembe róla, hogy azzal írom ezt a cikket, először papírra, ami az absztrakció lényegi része, de csak bizonyos szempont alapján.

Ha újra és újra fel kellene idézni, hogy a tollamat írásra használom, a tollamban tinta van, amit egy konverterrel lehet felszívni az üvegből, majd a tinta elsősorban a jól eltalált viszkozitása miatt kerül a papírra anélkül, hogy egyszerre folyna ki az összes, igencsak rövid idő alatt olyan adag információt kellene feldolgoznia az agyamnak az újra-osztályozás miatt, ami a legelemibb gondolkodási folyamatokat is lehetetlenné tenné.

A gondolkodás egységei, ha úgy tetszik, osztályok és nem az osztályokba tartozó elemek. Az elemekkel kapcsolatban pedig nyilván valamilyen érzékelhető módon építettük fel a szükséges információt és soroltuk osztályba, érzékelési csatornákból pedig jóval több alakult ki az evolúció folytán, amik nem bizonyultak adaptívnak, így szépen be is zárultak és sosem működnek. Relatív kevés az olyan kivételes eset, amikor a folyamatos osztályozás rendje felborul vagy éppen sosem használt információs csatornák nyílnak meg.

Irodalmi adatok alapján leginkább markánsan LSD hatása alatt. Aki pedig került ilyen állapotba, nem is tudja szavakban visszaadni, amit tapasztalt, csak hasonlítani ahhoz, ami más számára is érthető észlelés. Ahogyan az az érzés sem adható vissza, amikor valaki a flow-nak nevezett tudatállapotban alkot valamit.

a-gepi-tanulas

Sajátos, hogy a felelősségteljes döntések meghozására alkotott, komplex informatikai megoldások egy képzeletbeli in silico LSD-szerű hatásra nem más logika alapján fognak döntéseket hozni, nem fognak máshogy gondolkozni, a valóság sokkal prózaibb: egyszerűen összeomlanak. Természetesen nemcsak az olyan megoldásokra igaz ez, amik a neurális hálók valamelyikén alapulnak.

Alighanem abból adódóan, hogy mindenki szeret önmagából kiindulni, aztán antropogén megközelítést alkalmazni akkor is, amikor az egyébként teljesen mellékes, rendszeresen visszatérő téma, hogy mikor jelenik meg a mesterséges értelem – és nem mesterséges intelligencia!

A cikk zugbiológus szerzőjének véleménye szerint akkor jelenne meg a mesterséges értelem, amikor egy, egyébként már alkalmazkodni is képes, hibatűrő, több, mint informatikai megoldásnak nevezhető gépagy egy előbb emlegetett információbemenetként érkező, “pszichedelikus hatású kábszitól” nem összeomlik, hanem máshogy kezd működni.

Valószínű, hogy az ilyen, köznyelvi értelemben vett mesterséges értelem nem hozható létre ésszerű befektetés mellett, nem is érdeke senkinek, esetleg nem is fog létezni soha a sci-fi írók teremtményein kívül, hiszen a piac – igen, már megint a piac – és a fogyasztói igények egyeznek abban, hogy egy mesterséges intelligenciának nevezett megoldás feladatok egy többé-kevésbé körülhatárolt csoportjának elvégzésében legyen nagyon jó. Mondjuk annyira jó, hogy a feladat megoldása közben vagy annak eredményénél az ember ne tudja megkülönböztetni, hogy azt ember vagy éppen gép végezte.

Ide kapcsolódik az egyik leggyakoribb félreértés, ami szerint Alan Turing azt állította volna, hogy amit mesterséges értelemnek nevezünk, akkor jelenik meg, amikor az ember olyan módon tud beszélgetni a géppel, hogy az ember azt ne vegye észre, hogy géppel beszélget. Csakhogy Turing sosem állított ilyet, sokkal bonyolultabbat igen. Ha valakit érdekel, a témáról erre olvashat bővebben.

Na de vissza a guglihoz!

A komoly keresőmotorok az emberi megismeréssel részlegesen párhuzamba állítható algoritmusokat vetnek be, amikor osztályoznak és értékelnek egy-egy tartalmat. A folyamat vége pedig, hogy a tartalom hanyadik találatként jelenik meg a keresésnél.

Ami fontos, hogy a keresőmotorok megvalósítását semmiképp se úgy képzeljük el, hogy egy-egy okos algoritmus dobná tovább a labdát a következőnek, az szintén gondolkozna rajta picit, majd megszületne az eredmény. Ehelyett az emberi tanuláshoz hasonlóan osztályoz amellett, hogy az adott osztályba tartozó elemekkel is foglalkozik. Azaz a részt és az egészet is nézi, akár egy értelmes ember, már megint.

A keresőmotorok fejlesztői a sokszor már régen ismert algoritmusokat kombinálják, olyan módon, hogy az összességében minél hatékonyabb legyen. De mit jelent, hogy minél hatékonyabb, ha nem elégszünk meg olyan magyarázattal, hogy minél jobban eltalálja a kereső a választ arra, amit lényegében kérdezünk?

Sokan nem tudják, de amikor a Yandex, a Google és a többi elkezdte fejleszteni a saját fordítóját, az döntő részben nem úgy történt, hogy kézileg belegyúrtak volna eszelős mennyiségű szótári adatot és különböző nyelvtani szabályokat. Konkrétan a Yandex és a Google Translate – durva egyszerűsítéssel – úgy lett egyre hatékonyabb, hogy emberi szóhasználattal élve logikai kapcsolatokat gyűjtöttek az általuk indexelt kifejezések, tartalmak közt egy adott nyelven belül, majd különböző nyelvekkel kapcsolatban is keresték az összefüggéseket. Ez jelentette az egybefüggő tanulóhalmazokat.

Közben pedig a felhasználók dézsaszámra öntötték beléjük azokat a kifejezéseket, amiknek a jelenésére kíváncsiak voltak, a rendszer pedig egy-egy nyelvpár vonatkozásában folyamatosan korrigálta a saját fordítási hibáit.

Az egyik fontos, amit ki kell emelni, hogy szó sincs róla, hogy a gépi fordító teljes egészében emberi beavatkozás nélkül tanult volna meg idegen nyelveket. Nyilván időnként be kellett avatkozniuk a projekt kutatóinak is, főleg olyan esetekben, amikor olyan nyelvekről volt szó, amit a gépi fordítással foglalkozó nyelvtechnológusok ún. nem baráti nyelvpároknak neveznek.

Mi több, alighanem volt olyan, kisszámú eset is, amikor tényleg kézileg kellett megadni egy kifejezés másik nyelvben való megfelelőjét. De alapvetően, miután a megfelelő algók kombinálásával (na meg felmérhetetlen számítási kapacitással) tanították fordítani a gépet, onnantól kezdve a kutatók elenyésző mértékben avatkoztak be, abban volt hatalmas felelősségük, hogy olyan módon kalapálják össze a különböző machine learning algoritmusokat, hogy azok minél hatékonyabban el tudják végezni a feladatukat, magát a tanulást.

A másik fontos dolog, hogy hiába találunk baráti nyelvpároknál olyat, amikor egy, tükörfordításban nyilván nem fordítható szállóigét a gépi fordító pontosan ad vissza, magyarázattal, akár a másik nyelvben leginkább oda passzoló szállóigével, antropogén megközelítésben használt értelemről szó sincs, még ha úgy is tűnik.

Körbe lehet kérdezgeti a legkomolyabb, kemény kötésű nyelvtechnológusokat, hogy a legnagyobb kihívást mi jelenti szerintük szigorúan tudományos szempontból, azaz teljesen függetlenül annak megvalósíthatóságától. Nem igazán fognak tudni válaszolni rá, mivel a saját kutatási területeiken megoldandó feladatokat ismerik, azt viszont jól.

Ha egy kedvencet ki kellene emelni, laikusként kocanyelvészként rávághatnánk, hogy szemantikus módszerek ide vagy oda, a metonímiák azonosítása még jóideig kemény dió lesz. A legegyszerűbb példával, mit tudna mondani egy gép azzal kapcsolatban, ha azt kellene értelmeznie, hogy

“A szomszédom egy Einstein.”

A természetes nyelvfeldolgozás folyamatában csont nélkül menne nemcsak annak helyes felismerése, hogy a kijelentésben a szomszéd egy olyan személy entitás, aki mellettem lakik, ahogyan az is, hogy Einstein egy másik személy, aki egy nagyon jól ismert tudós, értelmes ember volt és így tovább. Magát az összefüggést viszont aligha találná meg, azaz hogy a mi értelmezésünkben a szomszéd egy igen okos figura.

Ráadásul itt még egy, ember számára nagyon egyszerű összefüggésről van szó a nyelvi jelenség szempontjából. Alighanem eléggé kevesen vannak, akik az ennél bonyolultabb nyelvi jelenségek értelmezésével kapcsolatos megoldásról tudnának mondani hatékony módszert, ahol kauzális szempontból többszörös áttétel van. Márpedig egyetlen kifejezésben nyilván több nyelvi jelenség kombináltan jelenhet meg, elég csak megnézni a kapcsolódó magyar Wiki-szócikket holott itt még csak a nyelv szintaktikai szintjénél járunk. A nyelv szemantikai és pragmatikai szerveződési szintjéről szó sincs.

A legkomolyabb gépagynak is feladná a leckét például annak a kijelentésnek az értelmezése, hogy

Tvrtko faszparasztként viselkedett az Egyetemen?

A kifejezés eléggé világos, de alighanem még feketeöves nyelvészek sem tudnának teljesen biztosan egy álláspontra jutni azzal kapcsolatban, hogy a nyelvi jelenség Pars pro toto,  inkább hasonlat, allegória vagy ezek keveredése.

Elvben az sem kizárt, hogy valaki képtelen legyen a nyelvi absztrakciókra, ebből adódóan denotációként értelmezné, csak nem nem tudná, hogy az, így paranormális jelenségnek tulajdonítaná.

Tehát a keresők, amikhez nem ritkán kapcsolódik automatikus gépi fordítás, okosak. Nagyon okosak. Hosszas kitérő után vissza a kulcszavak értékének méréséhez, jelentsen ebben az esetben az érték bármit is. Márpedig ha a fordítók ennyire okosak, akkor világos, hogy az embernek hosszú távon esélye sincs elhitetni a fordító technológiájával osztozó keresőmotorral, hogy valami értékes, miközben értéktelen.

Korábban egy érvelésben felmerült, hogy egy molekuláris genetikai szakkifejezésre keresve egy blogposzt beelőz több, online elérhető szaklapot, egyetemi jegyzeteket, annak ellenére, hogy bármiféle trükközés lenne a hátterében. Egyszerűen arról van szó, többek közt, hogy a fogalom közérthető magyarázattal van ellátva a blogon. A nyelvezet közérthetőségét a kereső is ügyesen azonosítani tudja, ami általában összességében hasznos, ritkább esetben viszont kimondottan veszélyes.

Közismert, hogy gyógyszerek, gyógyszerhatóanyagok vagy betegségek nevére az első nagyon-nagyon sok találat nemhogy pontatlan, hanem egyenesen megtévesztő. Ilyen módon egy information driven societyben egyenesen veszélyes. Ahogy szintén, de már kevésbé közismert, hogy a kereső kőkeményen figyelembe veszi, hogy egy-egy lefuttatott keresést követően a felhasználók mely találatokra kattintanak rá, onnan visszafordulnak-e, és így tovább, amiből próbál következtetni arra, hogy az adott információ mennyire hasznos.

Hogyan lehetne mégis egyszerűen megmérni, hogy egy-egy keresőkifejezés mennyire vonzza be az olvasókat? Az eléggé világos, hogy a keresőt azon a nyelven érdemes használni, amilyen nyelvű maga a kifejezés. Abban az esetben viszont, ha a saját, nap, mint nap használt böngészőnkbe írjuk be a keresőkifejezést, az eleve nagyon durván torzítja a keresésre kapott találatok sorrendjét, mivel a kereső komolyan figyelembe veszi, hogy a keresést mi végezzük.

Egyik mérési módszer lehet, hogy például TOR-on vagy valamilyen anonimizáló VPN-szolgáltatón keresztül kapcsolódunk a netre, majd ezt követően szűz böngészőből, privát ablakból keresünk a mérni kívánt keresőkifejezésre. A TOR exit node-okról természetesen a kereső tudja, hogy exit node, ilyen módon nem köthető a felhasználó földrajzi helyéhez. A VPN-en keresztül való keresés logikája hasonló, egy-egy kifejezésre keressünk rá a világ különböző országaiból és máris láthatjuk, hogy ugyanaz a keresőkifejezés ugyan, de teljesen más helyezést ér el a találati listán.

Látszólag ellentmondásos, hogy hosszan tárgyaltuk azt, hogy miért butaság ilyen-olyan kifejezésekre összpontosítani, de ez nem mond ellent annak, hogy értelmetlen lenne néha egy-egy kifejezés értékét mérni.

Innentől kezdve a végtelenségig finomítható, egy későbbi posztban vissza is térünk rá, hogy hogyan dolgozható ki olyan mérési módszer, ami mutatja egy keresőkifejezés rangját az ország különböző helyei felől, egy kontinens különböző országai felől.

Ahogy arról a Netacademia Tudástár egyik videójában is volt szó, a VPN-re való kapcsolódás mellett érdemes lehet telepíteni a Manual Geolocation böngészőkiegészítőt, amivel tovább finomítható, hogy “merre nézzen” a keresőszolgáltatás, amikor megpróbálja figyelembe venni a földrajzi helyünket, ami befolyásolja a találatok sorrendjét.

Emellett természetesen érdemes lehet használni a DuckDuckGo motorját, ami más logika szerint rangsorol és elvben az is meghatározható, hogy szinte semmit se vegyen figyelembe a keresést végző felhasználó kilétével kapcsolatban. Ahogy a bing.com -ot Európában alig használják, és szembetűnően eltérő sorrendű találatokat ad, a DuckDuckGo-nál hasonló figyelhető meg, csak éppen itt nem arról van szó, hogy a találatokat nem a felhasználók “bölcsességéhez” igazították, azaz azokhoz az interakciókhoz, amikből következtethető, hogy egy-egy keresésre egy-egy találat mennyire releváns, hanem a DuckDuckGo ezt szándékosan hagyja figyelmen kívül.

Közhelyes, de igaz, a neten az létezik, ami látszik a keresők számára is. Eléggé világos következtetés, hogy egy tartalom akkor igazán professzionális a keresők előtt, ha bizonyos kulcsszavaira ugyanazokat a lapokat találjuk a top 10-ben akkor is, ha Ausztráliából és akkor is, ha Magyarországról végezzük a keresést. A keresők nagy pontosssággal meg tudják saccolni, sőt, inkább mesterlövészi pontossággal eltalálni, hogy mik azok az értéktelen oldalak, amiket ímmel-ámmal létrehoztak, csak hogy legyenek, és mik azok, amik értéket képviselnek.

Tehát a SEO-ban a nyerő mix a XXI. században: rendszeresen frissülő tartalommal, újabb és újabb értékes információval kell ellátni a tartalomfogyasztókat. Pont.

képek forrása: InfoWorld, Luxoft, Astro, Becominghuman

Céges bölcsészmérnökök a döntéselőkészítésben

csoportmunkaTalk is cheap, show me the code.” Az idézet állítólag Linus Torvaldstól származik, és nagyon lazán úgy fordítható, hogy “pofázni mindenki tud, de tenni már kevesen”.

Nemrég egy céges meetingen hallhattuk, hogy miket tekintsen egy együttdolgozó közösség tudatosan vezérelveknek, ami a meglévő értékeinkkel is harmonizálnak. Ördögien nagy titok nem fog kiderülni, de nem baj, ha írunk róla néhány gondolatot.

Kérdőjelezz meg mindent!

Az egyik fontos vezérelv, hogy ne féljünk tőle, ha valamit meg kell kérdőjelezni, egy másik pedig, hogy a tervezés fontos, de önmagában kevésbé jelent értéket, mint maga a megvalósítás. Harmadikként foglalkozzunk “az ötlet nem éregy fillért sem” kijelentéssel. Ezeknek a vezérelveknek a boncolgatásával már a szervezetpszichológusok, filozófusok, HR-esek, antropológusok alighanem megtöltöttek pár könyvtárat, természetesen csak egy szeletét fogjuk kiemelni, hogy miért némileg ellentmondásos a fenti két vezérelv.

Lássuk az elsőt, a “kérdőjelezz meg mindent!” -elvet. Természetesen vállalata váltogatja, hogy a munkatársaknak tényleg meg kell-e kérdőjelezniük mindent, vagy inkább tartsák be a szabályokat – bár még ez utóbbi esetben is fontos lehet a szabályok ésszerű felrúgása (lásd később). Egy vasúti váltó kezelőjének, vagy pláne egy nukleáris ballisztikus rakéta “idomárjának” esetében nem tűnik kifejezetten jó ötletnek, hogy a menetrend szerint elrendelt teendőket következetesen kérdőjelezze meg, esetleg álljon le vitatkozni a feletteseivel, hogy ez így vagy úgy lenne helyes. Mert addigra kisiklik a vonat.

De mégis, az őrült tekintélytisztelet még ilyen munkahelyeken is vezethet katasztrófához. Emlékezetes azon koreai személyszállító repülőgép katasztrófája, ami hegynek csapódott, mert a másodpilóta a koreai társadalomban és nyelvben kialakult őrült tekintélytisztelet miatt nem tudta megmondani a pilótának, hogy véletlenül egy hegyoldalnak irányította a gépet a leszállópálya helyett. Az eset érdekessége, hogy mondta szegény, mondta, de a pilóta egy másik tekintélyi szinten lévén nem hallotta meg a figyelmeztetést. Kikapcsolt az agya.

Az eset tanulsága, hogy az idióta tekintélytisztelet mindig ártalmas. A koreai repülőgép katasztrófája után váltott át a nemzetközi légiközlekedés az angol nyelvre a kollégák közötti kommunikációban is. (A kukacoskodók kedvéért leírjuk, hogy valójában ez egy pszeudoangol, mely csak egyértelmű, egyféleképpen értelmezhető szavakat tartalmaz.) Magyar személyzet nem szólhat magyarul magyarhoz a légiközlekedésben, többek között azért, mert ebben a nyelvben nincsenek rangok, és persze, magázódás sincs.

A “kérdőjelezz meg mindent” elv viszont teljesen nélkülözhetetlen a startupok világában. Egy olyan vállalkozás esetében, melynek célja, lételeme a világ átformálása, semmi sem mehet úgy, ahogy, csak azért mert már korábban is így csináltuk.

A terv nem jó semmire?

A következő vezérelv a tervezés fontosságáról, és a kész tervek félrehajításáról szól. Az alábbi mondást Eisenhowernek tulajdonítják, és így szól: “planning is priceless, but plans are useless“.

Mit jelent ez a mai vállalati gyakorlatban?

Abból érdemes kiindulnunk, hogy az egyéni piaci szereplők viselkedését, például vásárlási hajlandóságát senki nem tudja még megsaccolni sem. Érdekes módon még azok sem, akik végül vevői/nem-vevői lesznek egy árucikknek. Én sem, Ön sem, senki sem tudja megsaccolni a saját viselkedését valós vásárlási helyzetben. Hiába mond bármit egy képzeletbeli teszthelyzetben, ennek az égvilágon semmi kapcsolata nem lesz az éles helyzetben mutatott viselkedésével.

Tehát mégegyszer: tök mindegy, ki mit mond arról, mit vásárolna meg, ennek a válasznak az égvilágon semmi köze nem lesz a tényleges vásárláshoz vagy elutasításhoz. Ezért nem fogad el mást a startup ökonómia a termék validálásakor, mint a konkrét vásárlást. Ha az nincs, mindegy, ki mit mond, valamit változtatni kell.

Ez egy igen érdekes ismeretelméleti probléma egyébként, de most maradjunk abban, hogy “noone knows a fucking shit”.

Ebből következően minden piachódítási terv nem más, mint egy a vásárlói reakciókat felmérni képtelen elme próbálkozása a valós viselkedési minták előrejelzésére. Mondhatjuk, hogy eleve kudarcra van ítélve az ilyen próbálkozás, de mégsem, mert a (reménytelen) tervezés folyamán a tervezést végző személy vagy csapat lefuttat gondolatban egy csomó élethelyzetet, amik a tervezés nélkül eszükbe sem jutottak volna. Az más kérdés, hogy az ezekhez rendelt sikerességi faktor nem sokkal jobb a nettó hasraütésnél.

Így hát minden új termék bevezetése a piacra nem más, mint nice guess, melyet az élet első pofonja úgy vág tarkón, hogy csak úgy nyekken. Aki nem emlékszik a New Coke tragikus sorsú, és a Coca Colát majdnem csődbe rántó bevezetésére, az nézzen ennek utána. Klasszikus példája a tudományos tervezésnek és kísérletezésnek, melynek eredménye kicsit sem korrelált a tervezettel.

A tervezés ugyan szükséges lépése az új termékek bevezetésének, de a terv csak arra való, hogy legyen fogódzónk, mi fog félremenni, és milyen hamar.

Na de jöjjenek a bölcsészek!

A web giantek főállásban foglalkoztatnak olyan kétlábon járó think tankeket, akik csak nagyon áttételesen vesznek részt a döntések előkészítésében, sőt állítólag alkalmaznak főállásban filozófusokat is. Igen, jól olvastad, tech cégek, főállásban filozófusokat, akik esetleg azzal sem foglalkoznak, hogy a tevékenységük hogyan igazítható a meglévő üzleti folyamatokhoz.

Hanem akkor mi a túrót csinálnak?

Az ötlet nem ér egy fillért sem?

Harmadik mondásunk: az ötlet nem ér egy fillért sem. Ez így eléggé vadul hangzik, leginkább a “Talk is cheap, show me the code.” vezérelv világíthat rá, mit is értünk ezalatt.

A startupos világban bármiylen tevékenység eredményességét a következő egyszerű képlet alapján számolják:

ötlet x megvalósítás = eredmény

Könnyen belátható, hogy ha egy szorzás bármelyik tagja nulla, az eredmény nulla, ám legyen bármelyik tagn akár nagyon pici, ha a másik hatalmas, az eredmény még lehet hatalmas. Egy tízpontos ötlet nulla megvalósítása nulla értéket képvisel. Egy félpontos ötlet 500-as kivitelezéssel 250 pontot ér. Egy 1000 pontos, tuti, világmegváltó ötlet 0,01-es kivitelezéssel – nem ér szinte semmit.

Konklúzió: az ötleteket nem dobálni kell, hanem megvalósítani.

Sok olyan ötletünk keletkezik, aminek a megvalósítása alighanem igencsak hasznos lenne, és igazából nem kerülne semmibe, vagy tényleg minimális költséggel járna, mégsem valósítjuk meg, idő vagy megfelelő szintű hozzáértés hiányában. Ha egy csoport tagjaként gondolkozunk, nem meglepő módon teljesen más gondolataink támadnak, mintha a közösség tagjai külön-külön vagy éppenséggel kisebb klikkekbe csapódva gondolkoznának. Az elmúlt pár hónapban billentyűzetre is vetettünk jónéhány gondolatot, ami talán apróságnak tűnik, esetleg nem tűnik hatékonynak, amíg ki nem próbáljuk, aztán ezek egy részét megvalósítottuk, egy része viszont megmaradt ötlet szintjén, amit természetesen meg tudunk valósítani a jövőben.

A Talk is cheap, show me the code-elv alapján hallgatólagos elvárás lehet, hogy csak olyat dobjunk be egy tech cégnél, amit meg is tudnánk valósítani mi magunk, akár egyedül. Ezt pedig aztán bőven meg lehet kérdőjelezni. Volt olyan, üzleti szempontból tényleg kritikus feladat, amit nagyon gyorsan meg kellett oldani, amihez egyvalaki adta az ötletet, de ugyanő implementálni már nem tudta volna. A professzionális fejlesztők viszont seperc alatt megvalósították, még ha volt is utána rajta mit csiszolni.

Nagyon gyorsan hozzátesszük, nem biztos, hogy ugyanaz az ötlet ugyanúgy másnak biztosan nem jutott volna eszébe; néhány részletet pedig kimondottan közösen csiszoltunk össze és tökéletesítettünk. Ez a példa eléggé világosan mutatja, hogy az ötlet messze nem volt értéktelen és messze nem volt fölösleges kifejteni olyan terjedelemben, amit esetleg van, aki túl terjengősnek találna.

Mivel nagyon sok eset képzelhető el, amikor valamit vagy elmagyarázunk, levelezünk normálisan vagy inkább sehogy sem érdemes. (Ezen sorok írója tudja magáról, hogy néha azért tűnik az írásképe túl terjengősnek, mert túl hosszú mondatokat használ, amik nehezíthetik a megértést.)  Tehát valaki valamit  részletekbe menően kiötletelt, majd másvalaki megvalósította, amit az ötlet kiagyalója csak ésszerűtlenül sok idő alatt tudtott volna megvalósítani, de neki nem is ez a felada.

Jól példázza, hogy semelyik ötlet messze nem értéktelen ahhoz, hogy bedobjuk egy közösségbe, hátha kijön belőle valami még jobb. Még akkor sem, ha egyébként mi magunk biztosan nem tudnánk megvalósítani. Mi több, ha mi magunk fogunk hozzá valami megvalósításának annak tudatában, hogy azt más hatékonyabban vagy jobban meg tudná valósítani, ideális esetben nem okozunk kárt és nem vesztünk túl sok időt.

Nem szorul magyarázatra, hogy mindez nem azt jelenti, hogy floodoljuk a környezetünket világmegváltónak hitt gondolatokkal, másrészt rendkívül fontos, hogy senki se szeressen bele a saját ötletébe csak azért, mert az övé. Hogy hogyan tálaljuk az ötleteinket, amiből mindig sokkal több olyan van, amit egyedül nem tudunk megvalósítani? Komolyan nem tudjuk. Nyilván helyes kommunikációs gyakorlat kell hozzá, amit ugyan a kultúránk messze túlértékel manapság, viszont valóban a képlet elhagyhatatlan paramétere, ha azt szeretnénk, hogy az ötleteinkből legyen is valami.

Az ötlet-megvalósítás kérdéskörhöz kapcsolódóan egy emlékezetes webtörténeti momentumot emelnénk ki. A Facebookkal kapcsolatban többször is felmerült, hogy a Facebook kiagyalói valójában az ötletet mástól lopták. Tehát az érdem nem is az övék kellene, hogy legyen. Ugyan több, mint valószínű, hogy valóban volt ilyen ötlet, viszont a Facebookot úgy, abban a formában, ahogyan elkezdett működni, majd ahogyan változott, egyértelműen Mark Zuckerberg és csapata valósította meg. Annak pedig gyakorlatilag nulla a valószínűsége, hogy az állítólagos ötletgazda, ha a saját csapatával más néven megvalósítja, ugyanazt valósítja meg, ami ugyanúgy felfut, ugyanazokat a technológiai és üzleti döntéseket hozzák meg és így tovább.

Függetlenül attól, hogy a FB jó vagy rossz, nem lehet azt mondani róla, hogy az ötlet lopott. Hasonlóan, ha például valaki kitalálja, hogy készít egy műholdat, ami tud valamit, amit más műholdak nem, de nem valósítja meg, más pedig megvalósítja a műholdat úgy, hogy abba több ezer, korábban sosem használt technológiát sorakoztatnak fel, nem lehet azt mondani, hogy az ötlet lopott, mivel gondolatkísérletünkben rendkívül valószínűtlen, hogy aki a műholdat azzal az egy újítással kiagyalta, a többi újdonságot is ugyanúgy beleépítette volna.

Dizájnelem, amit a keresők is szeretni fognak: az email cím

A legkülönfélébb tematikájú blogokon találunk valamiféle kapcsolatfelvételi lehetőséget, nem egy esetben találkozhattunk már olyannal, hogy egy rendkívül nívós oldalon szinte esztétikátlan volt a szerzők email-címe, holott egy postafiók vagy éppen a leveleket csak adott irányba továbbító, saját domaines megoldás nem kerül többe néhány garasnál. A jelenséget ismét több oldalról járjuk körül.

Az összes hagyományos sajtóterméknél megszokhattuk, hogy fel van tüntetve valamilyen cím, ahova az olvasók írhatnak. Ami az online tartalmakat illeti, a kapcsolatfelvételi űrlap jó ötletnek tűnik, valójában viszont sokkal személytelenebb ahhoz képest, mint amikor a szerző email címe fel van tüntetve, így az olvasó közvetlenül tud írni neki.

Mi indokolja az egyébként a felhasználó számára kénylemetlen űrlapokat? Az ilyesmi jól használható az irkálók lelombozására, és a felesleges levéláradat csökkentésére, nem véletlenül használják ezt a módszert például az ügyfélszolgálatoknál, ahol fontos mérési szempont, hogy hány igény NEM érkezik be. Persze, tudjuk, a ticketing rendszer miatt van, de ez nem igaz, mert a hagyományos emaileket is el lehet látni ticketekkel.

A másik egy XX. századi félelem, hogy ha valahová kikerül az email címünk úgy, hogy a kukac karatert nem helyettesítjük a “kukac” szócskával, az egyenlő az adott email cím kinyírásával, mert fél órán belül teletömik a levelesládát a spamelők. Tizenöt évvel a spamfilterek megjelenése után ez ma már egyáltalán nem igaz. Pláne, ha valaki valamilyen felhős szolgáltatást használ, ahol a szolgáltató elemi érdeke, hogy ne hagyja floodolni az előfizetők levelesládáját, a spam-áradattól való félelemre nyugodtam mondhatjuk, hogy atavisztikus.

Az email ráadásul jobb a címzettnek is, mivel a feladó ugyan írhat olyan címről, amiből nem nagyon lehet következtetni a kilétére, aki viszont valamiféle normális visszajelzést szeretne kapni a szerzőtől, sanszosabb, hogy normális címről küld majd emailt. A netes műfajok folyamatosan folynak össze, amiről viszont hajlamosak vagyunk megfeledkezni, hogy ha egy portálnak, blognak, mikroblognak a fejléce, betűtípusa az arculat szerves részeit képzik, miért lenne ez alól kivétel éppen az email cím? Amivel kapcsolatban azért valljuk be, elvárható, hogy legyen valamilyen formája olyan esetben, amikor éppen egy ICT-vel foglalkozó blogról van szó.

Egy, a napokban publikálásra kerülő posztban részletesen kitérünk rá AI-megközelítésben, hogy mitől szeretnek valamit a keresőmotorok jobban vagy kevésbé.

Nem nehéz belátni, hogy a keresőmotor komolyabban fog venni egy olyan webhelyet, amihez normális emai lcímek tartoznak, aminek az oka minden részletében nyilván hétpecsétes titok, sejtéseink azért lehetnek. A kereső persze hogy komolyabban fog venni egy olyan oldalt, aminél nem fantázianévvel, ráadásul 2 perc alatt regisztrálható ingyenes cím van feltüntetve a szerzők elérhetőségénél, hanem azonos a domain, aminek nyilván van egy felelőse.

Vegyük észre, hogy mi is nyilván sokkal hitelesebbnek tartunk egy olyan oldalt, ahol a szerzők névvel vállalják az írásaikat (ami lehet ugyan fantázianév is), ha egy ahhoz passzoló email cím is van hozzá kapcsolva, éppen a szöges ellentéte annak, amit a hülye konteós oldalaknál láthatunk. Igen, igen. A keresőmotornak emberi értelemben érzései nincsenek ugyan, viszont bizonyos értelemben esztétikai érzéke, na meg mérlegelőképessége egy-egy oldal hitelességével kapcsolatban annál inkább, ahogy arról a következő posztban szó lesz.

Ami a technikai megvalósítást illeti, nagyon labilis megvalósítás, amikor az adott címre küldött leveleket csak forwardolja egy szolgáltatás a szerző postafiókja felé, egy-egy freemium vagy filléres levelezőrendszer beállítása viszont már teljesen elegendő lehet, ahogy arról a tervek szerint kurzus is lesz. A komolyabb szerkesztőségekben pedig a legpraktikusabb megoldás lehet, ha hosztolt vagy éppen cloudban futó Microsoft Exchange van beállítva, aminek az üzemeltetésével kapcsolatban éppen a Netacademia egyik tanfolyama minden részletet lefed.

Korábban az egyszerűsége és a letisztultsága miatt rendkívül népszerű volt a Google Apps, mai nevén G Suite, ami ingyenesen biztosított – pongyola megfogalmazásban – saját domaines Google Mail levelezést. 2011. április 26-adika alighanem eléggé kellemetlenül érintette azokat a Google Apps adminokat, akik 10-nél több felhasználóval használták a szolgáltatás. A Google először az 50 felhasználót leszorította 10-re, majd teljesen előfizetésessé tette a Google Apps-t.

all-in-one-saas
All in one Software as a Service

Néhány dolgot viszont nagyon fontos tudni a G Suite-ról. Egyrészt a korábbi regisztrációkat visszamenőlegesen nem tették fizetőssé, ezek az ún. legacy csomagok. Viszont abban az esetben, ha az admin volt olyan elővigyázatlan, hogy rákattintott a dashboardon vöröslő UPGRADE-re 30 napos kipróbálási lehetőséggel, supporttal, utána már nem volt semmilyen módon lehetősége visszatérni az ingyenes változathoz! Az pedig azért nagyon nem mindegy, hogy ingyenesen vagy 10 felhasználóval számolva évenkénti 600 dollárért használható ugyanaz, mivel egy-egy fiók havi díja 5 USD körül van, csak az entry level esetén.

Természetesen nemcsak a levelezés, hanem közel 100 Google-szolgáltatás használható saját domaines végződéssel.

g-suite-google-apps
Hivatalosan nincs legszigorúbb DLP, viszont audit igen

További, amit nagyon fontos tudni a legacy G Suite-ról, hogy nem csak egyetlen domain lehet alá bekötve, hanem szinte akármennyi, aztán vagy a governance szerint beállítható vagy a felhasználóra bízható, hogy melyik végződéssel használja a szolgáltatáscsomagot.

Ugyancsak fontos, hogy az elsődleges domain nem cserélhető ki úgymond, viszont egy-egy nevet évenként 10 USD-ért megújítani annyira nem fájdalmas. Márpedig ha az elsődleges domaint, amivel eredetileg regisztrálta az admin a Google Apps-t, nem újítják meg, igencsak izgalmas pillanatokat okozhat működés közben, másrészt nyilván regisztrálhatóvá válik más számára is, aki ráadásul ha tudja, hogy G Suite volt bekötve a domain alá, korlátozás nélkül viheti az egész házat, mivel a G Suite admin elfelejtett jelszava az elsődleges domainhez tartozó zóna módosításával is kérhető!

Kísérleti jelleggel mostantól ehhez a bloghoz is tartozik szabályos formátumú email cím, igaz, még csak egy, a bardoczi.akos@elemzes.netacademia.hu.

A freemiumok közül a Google Apps-t emeltük ki, mert a legelterjedtebb volt. Különös érdekessége még az immár közel 10 éves történetnek, hogy a Microsoft ugyancsak nyújtott ilyen szolgáltatást, azaz olyan volt, mintha teljesen ingyen adtak volna Office 365-öt – ami persze akkor még nem volt – tokkal-vonóval, mindennel. Mégsem tudta felvenni a versenyt a Google Apps-szel és persze ugyanúgy kivezették az ingyenes csomagokat.

Hogy most elérhető-e hasonló komplett freemium szolgáltatáscsomag? Természetesen, több is, amik közül nem lehet egyikre sem mondani, hogy jobb lenne a másiknál, egy-egy szolgáltatás vagy szempont alapján erősebb. De ez már egy másik elemzés története lesz.

GDPR az információszabadság ellen: hogyan könnyíti a bűnözők dolgát és nehezíti a nyomozókét és kutatókét?

Kezdjünk egy beugrószintű OSINT-kérdéssel: miért lehetetlen titokban tartani ma egy mobilszámot?

imagesMég sok-sok évvel ezelőtt a személyes mobilszám, ha úgy tetszik, kimondottan érzékeny adat volt, amit igen kevesen tettek ki akár az életrajzi oldalukra, vagy adtak meg olyannak, akit nem ismertek valamennyire személyesen. Mi több, egy személyhez tartozó privát mobilszámot akár kimondottan nehéz is lehetett megtudni.

Emlékezetes az az eset, amikor egy válófélben lévő fiatal hölgy a büntetett előéletű férjétől szabályosan menekült, megpróbálta titokban tartani a hollétét és az elérhetőségét, de ahányszor lecserélte a mobilszámát, a férj annyiszor néhány napon belül megszerezte az új számot anélkül, hogy egyáltalán számítógép elé kellett volna ülnie. Pedig a hívószám nem szerepelt tudakozóban, telefonkönyvben, nem volt felregisztrálva semmilyen VoIP-alkalmazáshoz és közösségi webes felületen sem.

Ilyenkor a laikusok rendszerint valamilyen bennfentes szolgáltatói kapcsolatra gondolnak, ám már réges régen, ha egy mobilszolgáltató alkalmazottja vagy annak valamelyik partnere, például egy viszonteladói pont alkalmazottja lekérdezi egy ügyfél adatait (már ha egyáltalán tudja csak személyes adatok alapján), egyrészt naplózásra kerül, másrészt ha kiderült, az alkalmazottat jó eséllyel ki is rúgják.

Röviden szólva régen sem volt, és most sem életszerű egy olyan scenario, hogy “le tudom kérdezni bárkinek a mobilszámát, mert van ismerősöm a szolgáltatónál”. Viszont ekkor az előbb emlegetett büntetett előéletű, igencsak ragaszkodó férj, aki böngészőt is alig látott, hogyan jutott hozzá mégis a mobilszámhoz néhány nappal az után, hogy használatba vette a feleség?

Megfelelő mindsettel nem volt annyira nehéz rájönni: a pasas valamilyen kamu ürüggyel felhívta a feleség válóperes ügyvédjét, esetleg a saját ügyvédje hívta fel a feleség ügyvédjét, majd egyszerűen elkérte a mobilszámot, mint a kapcsolattartáshoz elengedhetetlenül szükséges információt (természetesen nem elengedhetetlenül szükséges). Az ügyvéd pedig szépen mindig kiadta az új számot.

A módszert igazából nem nevezhetjük social engineeringnek, ahogy utaltunk rá, az elkövető alighanem böngészőt sem nagyon látott életében. Nem mennénk el olyan irányba, hogy az ilyen típusú trükközés amellett, hogy ijesztően hatékony, annak ellenére, hogy bűncselekmény, utána lehet nézni, hogy milyen nevetségesen kis súllyal bünteti a törvény.

És akkor a jelen…

Annak a valós életben való kockázata, hogy egy eltökélt, gátlástalan bűnöző a lehetséges következményekkel egyáltalán nem foglalkozva vagy azokat nem is ismerve szerezze meg más számát ilyen módon, meglehetősen kicsi, de ez csak azért van így, mert tényleg gátlástalan bűnözőből kevés van.

Természetesen nem akarunk tippeket adni, de ha valaki nagyon szeretné megszerezni más új mobilszámát, ezért például valamilyen alibivel, felkészülten rátelefonál egy közös ismerősükre vagy az érintett kollégájára és a social engineeringben jól ismert pszichológiai triggerekre rájátszva elkéri a mobilszámot, akit kérdez, szinte biztos, hogy ki is fogja adni a számot. Viszont ekkor alighanem a Tiltott adatszerzés és az információs rendszer elleni bűncselekmények valamelyike megvalósul. Azt korábban már fejtegettük, hogy miért ne nagyon játsszon senki nyomozósdit, mert ha tényleges jogkövetkezménye nem is lesz, morálisan nyilván elfogadhatatlan, már eleve azért is, mert valakit súlyosan meg kell téveszteni.

Most mi nem stalkerekkel foglalkozunk, hanem a továbbiakban szorítkozzunk a felvezetésben említett témára, olyan módon pontosítva, hogy hogyan szerezhető meg egy mobilszám bármiféle manipuláció nélkül, azaz teljes egészében a passive reconnaissance módszereire támaszkodva. Itt fontos megjegyezni, hogy nyílt forrású információszerzésen keresztül más mobilszámához eljutni vagy épp egy mobilszámon keresztül azonosítani annak használóját, nem sért törvényt, viszont azt felhasználni már nagyon könnyen az lehet.

Némi magyarázó értelmezéssel: attól, hogy van egy mobilszámod, ami nincs kint valamilyen nyilvános, triviálisan kereshető felületen, még nem hívhatod fel például üzleti céllal, egyszerűen mert nem a tulajdonosa adta meg.

A NetAcademia beugró szintű nyílt forrású információszerzés kurzusán be szoktunk mutatni néhány ún. reverse lookup szolgáltatás, azaz olyat, ami a számhoz tartozó nevet adja vissza. Ezek közül mindössze kettőnél, amit ki szoktunk emelni, ha magyar mobilszámra keresünk, durván 10 keresésből 8 esetben ad vissza valid találatot, olyan számokra, amik nem szerepelnek a tudakozóban, sem a weben, sem máshol. Ráadásul ingyenes keresőeszközökről van szó. Könnyen belátható, hogy ha mindössze kettő mögött ennyi adat van, akkor több forrást használva gyakorlatilag az összes mobilszám kereshető (esetleg nehezebben).

Mégis hogyan fordulhat elő ilyesmi olyan személyek esetén is, akik esetleg kimondottan szemérmesek a mobilszámukkal kapcsolatban? El is érkeztünk a lényeghez, hogy miért nem lehet, és nem is érdemes senkinek törnie rajta magát, hogy megtalálhatatlan legyen, de előtte szükségszerű egy rövid magyarázat.

Az USA-ban a telefonos spam már évek óta olyan komoly problémát jelentett, hogy egymással vetélkedtek a különböző szolgáltatók, hogyan járjanak az előfizetők kedvében az ilyen hívások számának leszorításában. Mobilalkalmazásokat adtak ki, amivel a felhasználó beállíthatta, hogy az automatizált hívásokat és a telemarketing megkereséseket szűrje ki az alkalmazás, emellett természetesen ne nagyon fordulhasson elő olyan, hogy egy legitim hívást is megfogjon az alkalmazás.

Mi kell ahhoz, hogy egy ilyen szolgáltatás megfelelő módon működjön, azaz jó spamfilterhez illő módon, ami kéretlen hívás, hatékonyan ismerje fel és szűrje ki, és ne fordulhasson elő falspozitív találat? Sok-sok adat, aminek az adattárházát valahogy költséghatékonyan fel kell építeni. Ez pedig a gyakorlatban mindnél szinte ugyanúgy működik.

Amikor a felhasználó telepít egy hívásszűrő alkalmazást, az alkalmazás ingyenes ugyan, de amikor a felhasználó elkezdi használni azt, az applikáció (jobban vagy kevésbé) felhívja a figyelmet, hogy a pontosság növeléséhez szükség van az alkalmazást telepítő felhasználó nevére és telefonszámára, ezen kívül a mobil telefonkönyvében lévő összes (!!) név és szám kiolvasására. Amit persze az app feltölt a szolgáltatás saját adattárházába. A felhasználó pedig miért ne kattintana, máshogy nem is tudná használni a szolgáltatást.

Aztán a júzer dönthet úgy, hogy fehérlistás megoldást választ és csak olyanok hívásait fogadja, akiknek a száma a telefonkönyvében el van mentve. Esetleg megengedőbb, ez már részletkérdés. Mindenesetre a hívásblokkolónak nyilván tudnia kell, hogy mik a biztosan fehérlistás és feketelistás számok annyi adatból, amennyi rendelkezésére áll. A szolgáltatás saját címtára pedig folyamatosan szinkronizál a telefon címtárával.

Vegyünk észre néhány igencsak fanyar sajátosságot!

Az egyik, hogy ha például én titokban akarom tartani a telefonszámomat, tehetetlen vagyok, mert nyilván vannak közelebbi és távolabbi ismerőseim, ügyfeleim, kollégáim,  akik közül mondjuk, hogy mindössze kettőszázan mentették el a számom. Közülük ha csak egyvalaki telepített valamilyen alkalmazást, ami ilyen hívásszűrő feladatot lát el, a felhasználó többi kontaktja mellett már repült is fel a nevem és a számom az adott szolgáltatás adatbázisába anélkül, hogy tudnék róla. Az átlagfelhasználónak ráadásul a kézileg beírt bejegyzésekből is jóval több, mint kettőszáz van.

Itt pedig jön az, ami a saját mobilszámukra szemérmes felhasználók rémálma: alapértelmezés szerint a Facebook, a sokkal személytelenebb LinkedIN és még sok-sok szolgáltatás felajánlja, hogy kedvesen szinkronizálja az ottani kontaktjainkat a telefonkönyv bejegyzéseivel, amit szinte mindenki meg is tesz. Olyan részletekbe pedig most ne is vesszünk bele, hogy a Facebookról máig akkor is kikerült az exportált adatok közé a hívószám, ha az nincs is láthatóra állítva, de az exportálhatósága nincs letiltva (ami ugyancsak alapértelmezés).

A másik fanyar sajátosság, amire a felhasználó nem gondol, hogy az alkalmazás miért lehet mégis ingyenes? Igen, éppen azért. Mert az általuk megszerzett adatokat bizarr módon pont ők elvben át is adhatják harmadik – például telemarketing tevékenységet végző – félnek. Ami a felhasználót akkor sem érdekelné, ha tudna róla, neki az a lényeg, hogy az alkalmazás működjön és kész. A bejegyzések persze maradnak az adattárházban azt követően is, ha a felhasználó egyébként az alkalmazást törölte.

Eddig világos, de hol szivárog ki az adat?

Az ilyen szolgáltatónak nincs is jobb reklám, mintha közvetlenül bizonyíthatja a hatékonyságát a felhasználó előtt. Aminek nyilván a legkézenfekvőbb módja, ha webes felületen megadva a számot szépen vissza is tudja adni, hogy az addig feltöltött adatai szerint a szám kihez tartozik. Valahogy így:

telefonszam-kereses-1

telefonszam-kereses-2

Külön parádés az egészben, hogy ezek a szolgáltatások a találatok pontosságának növelése érdekében kiolvassák a lekérdezést végző felhasználó Google- és Facebook-címtárát is azok API-jain keresztül (igaz, már rákérdeznek előtte), de miért ne kattintana a felhasználó ismét az engedélyezésre?

A fenti két példában csak keresztnevet adott vissza, egyszerűen mert ezen a néven voltam elmentve egy vagy több ismerősöm telefonkönyvében, aki használ ilyen appot. Természetesen mindegy, hogy valaki fehérlistán vagy tiltólistán van számon tartva, ugyanúgy tárolódik, lekérdezhető. A fenti módszerek pár hete még működtek, de ha az olvasó most rákeres a saját számára vagy a fenti mobilszámra, alighanem nem kap majd találatot.

Egész egyszerűen arról van szó, hogy ezeknek GDPR-compliant-eknek kell lenniük egy-két hete, ami a gyakorlatban annyit jelent, hogy ezek az adatbázisok hirtelen megcsappantak, és világos, hogy valamennyi időnek el kell telnie ahhoz, hogy újra felhízlalják őket maguk a felhasználók. Igaz, ebben az esetben én nem rendelkeztem róla, hogy a nevemhez tartozó szám valahova felkerülhet-e, ezt bármiféle tudtom – na meg a saját tudta nélkül – megtette helyettem egy ismerős, akinek benne vagyok a telefonkönyvében.

De ha még nem is működnének ilyen szolgáltatások, akkor is számos módja van annak, hogy egy számhoz megtaláljuk a hozzá tartozó személyt, legalább egy keresztnév szintjén. Szinte mindenki használ Vibert, Whatsappot, Signalt, Telegramot vagy Facebook Messengert. Ezeknél az egyszerű keresési lehetőségek szempontjából némi eltérés van ugyan, de a lényegen nem változtat: kereshetünk bennük telefonszám, email cím, nicknév vagy név szerint is, GDPR ide vagy oda. A keresési-kényelmi lehetőségek nélkül ezek a szolgáltatások konkrétan használhatatlanok lennének.

Az összes üzenetküldő átfésüli a telefonkönyvünket és ha valamilyen azonosító alapján egy bejegyzéshez tartozik az üzenetküldő rendszerben is létező felhasználó (bármelyik azonosításra alkalmas adat szerint), gyakran már meg is jelenik az adott üzenetküldő címjegyzékében.

Remek kérdés, hogy az összes felhasználó hány ezrelékének, esetleg tízezrelékének jut eszébe, hogy az instant üzenetküldő szolgáltatásokhoz sokszor néhány perc alatt létrehozható VoIP-számot hozzon létre és rendeljen hozzá, amivel nehezebben lesz megtalálható ugyan, csak kicsivel lesz nehezebb helyzetben az, aki tudja, hogy hogyan keressen. Ráadásul az okosmobilok IM-appjainak mindegyikében lehetőség van avatar-kép beállítására is, ami alapértelmezés szerint Facebook-profilkép, de lehet olyan profilkép is, ami még a keresőmotorok képkeresőivel is kereshető.

A GDPR nagyon csúnyán odaszúrt a reverese lookup szolgáltatásoknak, aminek ideig-óráig vesztesei a nyomozó hatóságok, amiknek a munkáját már jóideje hatalmas mértékben segíti a nyílt forrású információszerzés. A GDPR vesztesei a magánynyomozó-irodák és vesztese mindenki, aki OSINT-eszközöket használ. Márpedig például a fent bemutatott két szolgáltató annyira komolyan veszi a GDPR-t, hogy például ezen cikk szerzőjének +12024700790, azaz Egyesült Államok-beli számát sem adja már ki találatként, mert a hívószám amerikai ugyan, viszont a hozzá tartozó személy, konkrétan bardóczi ákos, csupa kisbetűvel, EU-s állampolgár, amit ugye ezeknek a szolgáltatóknak tudnia kellett.

Alighanem azok a szolgáltatók, amik nem kis üzletet építettek a hívószámok osztályozására, megtalálják a módját, hogy megmaradjanak, mint GDPR-megfelelőségnek eleget tevő szolgáltatók. Egyelőre nem tudható, hogy a GDPR mennyire csorbította a különböző OSINT-források használhatóságát.

A telefonszámokhoz tartozó nevek megtalálása egy igencsak szerteágazó téma, gyakran kaptuk azt a kérdést, hogy egy személyhez tartozó mobilszám hogyan szerezhető meg. Ennek ugyancsak számos módja van, viszont ha valaki nem elég felkészültséggel végzi, könnyen megsértheti a törvényt. Bizonyos esetekben passzív felderítési módszerrel nem is lehetséges célt érni. (Most technikai lehetőségeket tárgyalunk, és nem jogászkodunk, mivel ahhoz nem értünk.)

A GDPR más területen is olyan változásokt (károkat?) okozott, amiknek még nem látjuk a méretét. Ha eddig valaki bármilyen okból kíváncsi volt rá, hogy egy domain név kihez tartozik, bármikor végezhetett egy WHOIS-lekérdezést, ami olyan kulcsfontosságú adatokat tartalmazott, hogy kivel lehet felvenni a kapcsolatot, ha a domain alatt valamilyen szolgáltatás elérhetetlen, esetleg a domain neve már-már védjegybitorlás vagy súlyosan megtévesztő. Igaz, mióta létezik WHOIS, azóta létezik WHOIS masking is, azaz amikor a domaintulajdonos kérésének megfelelően a tulajdonos adatai helyett egy erre szakosodott szolgáltató adatait mutatta a WHOIS-rekord, viszont az, hogy valaki WHOIS-masking mögé bújt, itt nem részletezett módon ugyanúgy hasznos információ volt, illetve a WHOIS maskinget ki is lehetett játszani sokszor.

A .eu legfelső szintű domain neveket regisztrációja sokáig csak EU-s állampolgárok és szervezetek számára volt elérhető, ahogy egy időben még a regisztrátornak, azaz a regisztrációt végző cégnek is európainak kellett lennie. Ennek ellenére követhetetlen mennyiségű .eu-s domaint regisztráltak be a világ legkülönbözőbb részeiről, és éppen szabályos EU-s regisztrációból van a legkevesebb.

Korábban példának okáért, ha valaki olyan webhelybe botlott, ami nagyon durván törvénysértő tartalmat hordozott, a domainekhez tartozó WHOIS-adatokat az EUrID-ből lekérdezve el lehetett indulni, hogy kié lehet. Ha pedig maszkolva volt, akkor lehetett jelezni a domaint maszkoló szolgáltatónak, hogy baj van. Az persze nem várta meg, hogy elverjék rajta a port a hatóságok, hanem seperc alatt szerződést bontott a problémás ügyféllel, azaz rögtön látható váltak a kimaszkolt adatok.

Mára az .eu-s domainekkel kapcsolatban az EUrID csak annyit mond, hogy foglalt vagy sem és melyik cég a regisztrátor. Ezen kívül van egy hihetetlenül kretén protokoll arra az esetre, ha baj van. Ezen elvileg végig lehetett menni, ha például egy cégnek a nevéhez fűződő jogát megtévesztő módon sérteti egy domain név, hogy durvábbat ne is mondjunk.

Lehetne írni, hogy az Európai Unió domain-ügyben a Kókusz-szigetek (.cc) vagy éppen Palau (.pw) szintjére züllött le, a helyzet talán még annál is rosszabb. (A .cc és a .pw alá tartozó domainek a nehézkes visszakövethetősége miatt annyira a bűnözés, főként spam- és malware-ek terjesztésének melegágyai voltak, hogy a Google tízmilliószámra takarította ki a .cc és .pw végződésű domainekre mutató találatokat az indexéből.) Sajnos a GDPR a szervezett bűnözésnek kedvez azzal, hogy gyakorlatilag ellehetetlenítette egy-egy .eu alá tartozó domain tulajdonosával kapcsolatos információk korábbi rutinszerű elérését.

A végére hagytunk valamit, amit talán helyesebb lett volna az elején értelmezni. Mégpedig, hogy amikor haladó keresésről vagy OSINT-ről van szó, akkor a keresés alanyai a példáinkban miért éppen személyek, nem pedig helyek, események vagy folyamatok.

Egy didaktikai-nyelvtudományi megközelítésű válasz: miért láthatjuk nyelvtől függetlenül, hogy az összes kezdő nyelvkönyv már a legelején olyan példamondatokat tartalmaz, aminek van egy konkrét alanya, akinek a neve például Móricka, Alejandro, Maximilian, Anastasia és így tovább? De még ha nem is nem nyelvkönyvről, hanem kőkeményen nyelvészettudományi könyvről van szó, ott is megjelenik nagyon hasonló. Alberti Gábor és Medve Anna amolyan középhaladó Generatív grammatikai gyakorlókönyvében 640 oldalon keresztül Péterről és Mariról van szó.

A másik ok végül is ugyancsak didaktikai megközelítésű. A történelmi eseményeket emberek alakították, a politikában, az üzleti világban vagy éppen egy bűnügyben, de a mindennapokban is az egyik alapkérdés, ami nélkül egy-egy tény gyakran értelmezhetetlen, hogy kinek a személyéhez köthető.

Azaz nyugodtan kijelenthető, hogy minden olyan intézkedés, ami a személyhez kötődő adatok hozzáférhetőségét ésszerűtlenül korlátozza, a teljes információszabadságot korlátozza, amiben mi, magyarok, eddig is eléggé erősek voltunk: a NAIH egy nem is olyan régi állásfoglalása szerint a levéltárakba eleve anonimizáltan (!!!!!) kellene eljutniuk a dokumentumoknak, aminek az eszementségét nem kommentálnám, de azért képzeljünk el egy olyan történelemkönyvet, ahol az összes személynév fekete filccel van kihúzva.

Android vagy Apple? Zsebekben és nagyvállalati környezetben, hitkérdéseket félretéve

Android vagy Apple? Melyikkel járunk jobban ár-érték arányban személyes használat esetén és nagyvállalati környezetben? Milyen üzleti logika működteti az egyiket és a másikat?

iphone-vs-android-001-1024x576Ez olyan kérdés, amiről mindenkinek van saját tájékozottságán alapuló véleménye, meggyőződése, érvei, de sokkal ritkábban foglalkozik bárki is a témával a tudomány, közelebbről a gazdaságinformatika szigorával, még ha figyelembe is vesszük, hogy a cikk szerzőjének álláspontja nem éveken keresztül folytatott kutatásra alapul, de olyan összefüggésekre viszont igen, amire a végfelhasználók, sőt, sokszor még az egész ICT-szegmens tagjai sem gondolnak.

Az Apple mobileszközein futó iOS-ről és az Androidról próbálunk olyan elemző módon írni, hogy nem is akarjuk görcsösen kikerülni a két rendszerrel kapcsolatos, sokszor odabetonozott közhelyeket, mi több, sokszor inkább ezek hátterét vizsgáljuk meg részletesebben, olyan módon, mintha egy felhasználónak magyaráznánk az egyikkel és a másikkal kapcsolatos miérteket – a teljesség igénye nélkül.

Az Android-felhasználók oldaláról gyakori érvelés, hogy az Android-rendszer rendkívül rugalmas, szinte nincs olyan, amit ne lehetne testre szabni benne. Első blikkre az Android több beállítási lehetőséget enged meg a külcsín terén és under-the-hood, a rendszer mélyét érintően egyaránt, mint az iOS a végfelhasználó esetén. A végén visszatérünk rá, hogy a valóság azért sokkal árnyaltabb.

Jó, ha egy rendszer finomhangolható, testre szabható, sosem szabad megfeledkezni arról a lényegi kérdésről, hogy in real life mit érünk el vele? Világos, hogy aki Android-fejlesztő vagy éppenséggel tech-újságíró, mindig szereti kipróbálni az aktuálisan legújabb és leginkább trendinek mondott feature-t, beállítási lehetőséget. Ám az egyéni felhasználók és a vállalati felhasználók közt nem az Android-fejlesztők és a tech újságírók vannak többségben. Abban az esetben, ha valakit tényleg az újdonságok érdekelnek, éppenséggel telepíthetne Androidot egy Virtualboxba is, a felhasználói élmény nyilván abban tér el, hogy az utóbbit nem lehet zsebre tenni.

Nemcsak ezen cikk szerzőjének, hanem alighanem még nagyon sokaknak személyes véleménye, hogy egy bizonyos árkategóriában igencsak lutri, hogy milyen androidos mobilt kapunk. Ezzel mindenki szembesült már, aki hosszabb kihagyás után ismét elkezdett használni Androidot is. Példaként ha az üzletben veszünk egy Android 7.0-t futtató okosmobilt, akkor az a hallgatólagos elvárásunk, hogy egy meghatározott verziójú operációs rendszer az összes eszközön ugyanúgy fog viselkedni.

Ez olyannyira nincs így, hogy azonos verziójú Android rendszerek esetén gyártófüggő, hogy milyen billentyűkombinációval lehet screenshotot készíteni, a telefont visszaállítani a gyári alapbeállításokra vagy éppen előcsalni a Developer mode-ot a beállítások közt. Ennek fényében pedig belegondolni is rossz, hogy a bonyolultabb működések mennyire gyártófüggőek lehetnek.

Ami a Developer mode-ot illeti, irónia nélkül elmondható, hogy a legolcsóbb mobilok esetén a leghasznosabb lehetőség, mivel ott kapcsolható ki például a grafikus felület animálása, és érhető el több olyan beállítás, amin keresztül lehet takarékoskodni a rendszer erőforrásaival.

Ugyanakkor ez a gyártófüggő viselkedés a korszerű ICT-rendszerek legalapvetőbb elvárásával megy szembe, ami szerint ha egy szoftverterméket specifikáltak, elláttak egy névvel és verziószámmal, akkor az vagy minden támogatott környezetben ugyanúgy viselkedik vagy sehogy. Ha pedig részben, akkor pontosan tudható, hogy mi az, ami nem fog működni vagy máshogy fog működni. Ahogy előbb felvázoltuk, ezt az Android máig nem tudta megugrani.

Abból, hogy gyártófüggő egy rendszer két példányának viselkedése különböző eszközön, egyenesen adódik, hogy maguk az alkalmazások is máshogy fognak vagy tudnak viselkedni. Azaz logikusan azt várnánk, hogy ha van egy androidos mobilunk n-es verziószámmal, amin elfut például a Microsoft Power BI vagy éppen egy egyszerű Evernote, akkor az azonos Android-verziót futtató másik mobil esetén szintén el fog futni, különben miért telepítettek volna arra is ugyanolyan oprendszert. Ilyen szempontból a helyzet annyira sajátos, hogy a Google Play 100 leggyakrabban letöltött alkalmazása közül is, a még mindig gyártott, olcsóbb mobilok csak egy részét képesek használhatóan futtatni.

Igen, erre lehet mondani, hogy nem kötelező a legolcsóbb androidos mobilt megvenni, ha valaki mégis olcsót vett, ne csodálkozzon, ha lassú vagy instabil rendszert kap. Kapcsolódva az éppen nemrég megjelent posztunkhoz, ami szerint valamiféle minőségi minimumot meg kellene, hogy húzzanak a gyártók az IoT-eszközöknél, ismét a FMCG-pharma termékek köréből vennénk elő egy példát.

Több, árban jelentősen különböző, diclofenac hatóanyagú fájdalomcsillapító is van a piacon, amik közt a különbség a csomagoláson túl nyilván az, hogy az egyiket olyan technológiával készítették el, hogy a vivőanyag hatására a diclofenac hatékonyabban szívódjon fel. Az olcsóbb terméknél ez kevésbé működik, ezért hiába, ha ugyanúgy diclofenacot tartalmaz, ám az olcsó vivőanyaggal készülő fájdalomcsillapító hatóanyaga nem megfelelő módon hasznosul, azaz eltér az bioefficacy, más a termék hatása, viszont szó sincs róla, hogy teljesen más lenne.

Olcsóbb fájdalomcsillapító, ezt elfogadjuk. A hazai törvényi szabályozás szerint vény nélkül kapható készítménynél és táplálékkiegészítőnél nagyjából csak annyi a forgalomba hozatal feltétele, hogy ne okozhasson egészségkárosodást normális fogyasztás esetén. Olyan diclofenac tartalmú fájdalomcsillapítót viszont már senki sem szeretne, amiből gyakorlatilag nem szívódik fel mérhető mennyiségű hatóanyag vagy éppen a hatóanyag mellett olyan hozzáadott vegyületet tartalmaz, aminek már néhány adagja mérhető szervi károsodást okoz.

Azaz csak nagyon komoly megkötésekkel lehet azt mondani, hogy egy olcsó készüléken futó Androidtól ne várjunk többet, aztán ne csodálkozzunk, ha egy hét után annyi malware tenyészik rajta, hogy gyakorlatilag használhatatlan lesz az egész, esetleg elérhetetlenné téve több, felhőben tárolt fájlunkat.

Természetesen van azzal kapcsolatos megkötés a Google részéről, hogy milyen feltételeknek kell minimálisan megfelelniük azoknak az eszközöknek, amik adott főverziójú Androidot fognak futtatni. Egy ilyen korlátozás világszinten nyilván ellenőrizhetetlen és betartathatatlan. Ez röviden annyit jelent, hogy ha elmegyünk egy üzletbe, ahol megvesszük a legolcsóbb androidos mobilt, az valójában még annyit sem ér, mint amennyit fizetünk érte, pontosabban a valamihez mérhető valódi érték és az ár sokkal távolabb lesz egymástól, mint egy értékesebb Androidot futtató mobil, vagy a rendszeresen túlárazottnak gondolt Apple esetén.

Való igaz, hogy a különböző mobilok hardveres specifikációi mindenki számára elérhetőek, ahogy utána lehet nézni a különböző benchmarkoknak is. Teljesen világos, hogy a felhasználók tömege nem ezek alapján fog telefont választani, sőt, a benchmarkok sokszor még azok számára is megtévesztőek, akik otthonosabban mozognak mobil-témában.

Ha valakinek valami miatt nagyon nem tetszik az Android, akkor gyakori megoldás, hogy ilyen-olyan főzött firmware-t és OS-t tesz a mobiljára, aminek inkább csak az elvi lehetősége szép és jó. Az esetek többségében fölösleges, másrészt kicsit hasonló a helyzet, mint a saját fejlesztésű portálmotorok versus jól ismert portálmotorok esetén. Azaz valószínűtlen, hogy lelkes önkéntesek egy része által fejlesztett Android-klón jobb legyen, mint a hivatalos, amit sok-sok száz fejlesztő fejleszt főállásban.

android_architektura

Mint nagyon sok más esetben, itt is hajlamosak vagyunk azt hinni, hogy van ingyen ebéd, holott nincs. Ha van valami, ami alól nincs gazdaságtudományi kivétel, hogy az ár valamiféle arányban áll az értékkel, az pedig egy rendkívül messze mutató kérdés, hogy mit tekintünk egy összetett áru esetén értéknek.

A Tinder-felhasználók tudják, hogy maximálisan 160 km-es sugarú körben lehet más felhasználókkal ismerkedni. Ugyan van lehetőség arra, hogy átvarázsoljuk magunkat mondjuk Ausztráliába, ha ott szeretnénk új felhasználókat megismerni, de alapértelmezés szerint ezért az ismerkedős alkalmazásban fizetni kell, a helyünket pedig természetesen látja egy helymeghatározáson alapuló társkereső rendszer.

Adja magát a helyzet, hogy a felhasználó vagy fizet a társkeresőben, vagy megpróbálja megoldani a dolgot okosba’, aminek a legegyszerűbb megoldása Android esetén, hogy engedélyezzük a rendszernek a Mock locationt, majd kézzel állítunk be egy bizonyos helyet az égtelen mennyiségű fake GPS alkalmazás valamelyikével, amelyik magának az oprendszernek fog kamu földrajzi adatokat megadni. Ilyen lehetőség az iOS-nél nincs, a Tindert már ki is cseleztük, és megspóroltuk az előfizetési díjat, viszont érdemes áttekinteni ennek az árát:

Eleve azzal, hogy a Developer mode, ezen belül is a Mock location könnyűszerrel bárki által bekapcsolható, már komoly kockázat. Ugyanis ha elhagyjuk a mobilunkat, esélytelen megtalálni a mobilt jól ismert módszerekkel, például a Google készülékkeresővel, hiszen az értelemszerűen fals GPS-adatokat lát. Mindegy, hogy nagyon olcsó fröccsöntött kínai mobilról vagy egy felsőkategóriás készülékről van szó, ilyenkor az eszköznek annyi, GLONASS, Galileo és a többi ide vagy oda, esély sincs megtalálni, mivel alapértelmezés szerint távolról a GPS-t fake-elő szolgáltatás nem lőhető ki.

Másrészt csak bízhatunk benne, hogy az az alkalmazás, amit letöltöttünk, valóban csak a GPS-koordinátákat fogja megmókolni, de mást nem csinál, mert normálisan, biztonságosra készítették el. Abban az esetben, ha nem, az egyébként teljesen legitim, tömegek által megbízhatónak gondolt alkalmazás is hordozhat magában olyan kockázatot, hogy az ingyenes használatért cserébe a felhasználó a fél veséjével fizet, mert az alkalmazás annyi információt csiripel ki róla harmadik félnek.

Elképzelhető az is, hogy maga az alkalmazás használata valóban díjmentes, de olyan típusú sebezhetőséget tartalmaz, ami megkönnyíti, hogy malware-ek jussanak a rendszerbe, ami pedig ezt követően történhet, sokkal súlyosabb annál, hogy teljesen gallyra megy a készülék: mivel rendszerint Google-accounthoz van kötve a mobil, a malware a jogosultságok kijátszásával felhasználói adatokat módosíthat, tehet elérhetetlenné és így tovább.

Az egyik leginkább legitimnek hitt alkalmazás, a CCleaner-es esetnél jobb példa nem is kell.

Tehát! A legrosszabb forgatókönyv bekövetkeztekor fel lehet tenni a kérdést, hogy tényleg megéri-e olcsó androidos mobilt használni, amiben elérhető a Mock location, amivel a Tindert kicseleztük ugyan, de oda lett minden adat, ami a Google Drive-on tárolódott például.

Igaz, a malware-es az elképzelhető legrosszabb forgatókönyvek egyike, de teljesen világos, hogy egy alkalmazás letölthetősége és használata nem véletlenül díjmentes, ingyenességről szó sincs, bármennyire is szeretnénk azt hinni.

Természetesen nem csak az alkalmazásoknál jelentkezik mindez, az Android üzleti modelljének a legalapvetőbb része, hogy azért tud olcsó lenni, mert amikor a felhasználó elkezd használni egy androidos mobilt, szépen bejelentkezik a Google Accountjával, ő maga egyezik bele, hogy a Google viheti a páros szerveit vagy ha azt nem is, de felmérhetetlenül sok, a végfelhasználó által generált adatot, ami természetesen tartalmazhat igencsak szenzitív adatokat is.

Rögtön meg kell, hogy jegyezzük, 2018-ban, ma, jobban belegondolva mindez nem feltétlenül ördögtől való, sokkal inkább előnnyel jár a felhasználók tömegei szempontjából.

Akárcsak a múltban… 2005-ben a Postini felvásárlása, majd Gmail-lé való átkeresztelése utána sokan köpködték a Google-t amiatt, hogy automatizáltan az összes levelet elemzi. Az eredményt pedig a végfelhasználó, aki Gmail-t vagy G Suite-ot használ levelezéshez, nap, mint nap tapasztalhatja: a világ egyik legpontosabb spamszűrő rendszerét alakították ki, azzal kapcsolatban pedig lehet konteókat gyártani, hogy mi minden másra használták még fel a levelekben lévő adatokat.

Közel másfél évtized után, ma, amint hozzájárulunk, hogy a Google az Androidon keresztül folyamatosan stalkolja, hogy merre járunk, mennyi ideig vagyunk bizonyos helyeken, lehetővé teszi, hogy a Google Maps még pontosabb legyen, már-már valós időben látható, ha egy közúton torlódás van vagy éppen meg tudjuk nézni, hogy egy-egy üzletben vagy szórakozóhelyen általában mikor mennyi időt töltenek mások.

A sok-sok adat olyan, bonyolultabbnak tűnő, valójában pedig jellegükben más felhasználása pedig külön posztot érdemel, például hogy a Firebase hogyan segíti hozzá a fejlesztőket, hogy jobb és jobb alkalmazásokat tudjanak készíteni azáltal, hogy a rendszer megkapja, hogy a rendszer egy része vagy egy alkalmazása mitől-hogyan viselkedett, hogyan használta a felhasználó, esetleg omlott össze.

Ide kívánkozik két nagyon fontos közbevetés.

Az első, hogy a végfelhasználói adatok továbbítása elvben beállítható a Google Accountban, viszont hasonlóan ahhoz, hogy már-már művészi ügyességgel van elrejtve az a beállítási lehetőség, hogy az aktivitásaink alapján ne profilozzon egyik szolgáltatás sem, az Andoidban is alaposan el vannak rejtve ezek a lehetőségek, sejthetően pedig az összes ki sem kapcsolható.

A második közbevetés, hogy az Apple-felhasználók féltudású idióta része gyakran érvel azzal, hogy az Android tényleg visz mindent, amit lát, míg az iOS tiszteletben tartja a felhasználót ilyen szempontból, holott ez szimplán nem igaz. Miközben iOS-rendszert használunk, alapértelmezés szerint az ugyanúgy továbbít információkat az Apple és az alkalmazásfejlesztők felé egyaránt, igaz, sokkal kevesebbet, hacsak ezt nem tiltottuk le kimondottan.

A hatalmas eltérés a kettő közt a transzparencia. Az átlagfelhasználónak esélye nincs felmérni annak a jelentőségét, hogy mit jelent, ha folyamatosan stalkolja a saját mobilja, de a Google egyrészt nem árul zsákbamacskát, másrészt a végfelhasználói adatok továbbítása jórészt nem egyszerűen, de kikapcsolható (egy részük teljes egészében nem).

Az iOS esetén elvben megoldható, hogy egyáltalán semmilyen végfelhasználói adatot ne dobjon vissza az Apple felé a rendszer a működéshez feltétlenül szükséges adatokon kívül, viszont az iOS is figyel, amíg nem tiltjuk meg neki. Példaként ott is alaposan el van rejtve a “Limit Ad Tracking”/”Reset advertising identifier” lehetőség, ami alighanem az a menüpont, amivel azok többsége sem találkozott, aki mindig is Apple-terméket használt.

Azaz az egyik erősen támaszkodik a végfelhasználói adatokra, míg a másik kevésbé, a különbség pedig sokkal nagyobb, mint amekkorának tűnik.

Ahogy utaltunk rá, az Android ördögien jól fel van arra készítve, hogy a felhasználóról a lehető legtöbb adatot nyerje ki, amivel tökéletesíthetők a szolgáltatások; az anomáliák azonosításával zárolhatják a fiókot, ha feltételezik, hogy ahhoz valaki megpróbál illetéktelenül hozzáférni és így tovább. A végcél viszont mégiscsak amilyen jól ismert, olyan gyakran feledkezünk meg róla: hogy a Google minél inkább személyre szabott hirdetéseket tudjon a felhasználó elé tolni, mi több, ezzel akár a fogyasztási szokásokat tömegesen befolyásolni is.

Cserébe pedig minden, ami ebbe az ökoszisztémába be van kötve, díjmentesen vagy rendkívül olcsón használható. Így visszaolvasva szépen leírtuk, amit eddig is mindenki tudott. Nagyon fontos, hogy ez a modell az egésznek a sarokköve, azaz máshogy nem is működhetne. Végfelhasználói adatok tömeges gyűjtése és személyre célzott hirdetésekből befolyó bevételek nélkül a Google és az Android működése elképzelhetetlen.

Az Apple esetén jóval kevesebb végfelhasználói információ csorog vissza az eszközről, még akkor is, ha nincs kimondottan korlátozva mindez, viszont az Apple bevételeinek csak egy töredék részét képzi az, hogy bizonyos alkalmazásokban célzott hirdetéseket jelenít meg, vagy olyan appokat ajánl, amik a korábbi letöltéseink alapján érdekesek lehetnek, de nem ingyenesek. Egyik mobilrendszer sem népjóléti intézmény.

Egy 10 éves gyereknek hogyan mondanánk el, hogy hogyan marad mégis piacon az Apple, ha kevesebb végfelhasználói adatot visz, másrészt sokkal kevesebbet használ fel? Pont úgy: a felhasználó az árat akkor fizeti meg, amikor megvásárolja a terméket, amik valóban magasabb árfekvésűek az androidos eszközökhöz képest. Az pedig már gyakorlati kérdés, hogy nem kell mindig a legújabbat megvenni, ezen kívül ha például iPhone-ról van szó, mivel a felhasználó relatíve ritkán vált mobilszolgáltatót, nem kell feltétlenül hálózatfüggetlennek lennie a mobilnak. Ha valaki a szolgáltatók valamelyikénél vásárolja kamatmentes törlesztőrészlettel, rögtön nem is annyira drága.

Nem várható el mindenkitől, hogy ismerje azt a fogalmat, amit a közgazdászok a pénz időértékének is szoktak nevezni, a lényege pedig abban áll, hogy matematikailag persze nem, gazdaságilag sokkal drágább egy összegben kifizetni például kétszázezer forintot, mint húsz hónapon keresztül 10-10 ezret.

Eddig a magánfelhasználók szempontjából néztük, hogy mi fán terem az Android és az Apple. Mi a helyzet a vállalati, különösen nagyvállalati vagy éppenséggel kormányzati szektorban?

Képzeljünk el egy szervezetet, ahol igencsak érzékeny adatokat kezelnek, a beszerzésnek pedig arról kell döntenie, hogy androidos vagy Apple mobilból vegyenek mondjuk 500 darabot. Az érzékeny adatokat kezelő szervezeteknél elvárás, hogy minél kifinomultabban legyen megoldva a Mobile Device Management, ugyanakkor ne legyen túl drága se. Ha egy alkalmazott elhagyja a telefonját, szükségessé válhat, hogy annak adattartalmát az IT-csoport távolról tudja törölni, esetleg arra is, hogy az eszközhasználati szokásokat figyeljék akár belső, akár külső informatikai fenyegetések kiszűrése céljából, ugyanakkor mindebből minél kevesebbet vegyen észre az alkalmazott.

Ahogy írtuk, gyakori androidos érvelés a testreszabhatóság, valamint az, hogy tényleg le lehet kotorni a rendszer lelkéig, és ott piszkálni a fogaskerekeket. Így logikusnak tűnik, hogy a beszerzés úgy döntsön, hogy a könnyen idomítható, darabra olcsóbb androidos mobilokból szerez be, azokat látja el valamilyen MDM szoftverrel. Az ár-érték arány ismét látszólagos. Van valami, ami csúnyán kimaradt a képletből: az egészet felügyelő devops csoport MDM-re fordított munkaideje, pénzben kifejezve.

Még ha fegyelmezetten is használja mindenki a céges mobilját, azt rendszeresen patchelni kell, figyelni arra is, hogy az MDM-ben meghatározott policy ne legyen megkerülhető és így tovább, ami finoman fogalmazva nem egyszerű feladat. Ha belegondolunk, hogy az Android történetében egymást érték a silány szoftveres implementációra visszavezethető botrányok azok minden következményével. A beszerzés dönthet az Android mellett, viszont alighanem lesznek az IT-seknek álmatlan éjszakáik. Eléggé világos, hogy például egy 3 évre vetített költség magasabb lesz, ha  többet kell MDM-mel és a mobilflottával szöszmötölnie az IT-seknek az elvárt biztonság és stabilitás biztosításához. Hiszen az IT-s ideje is pénz.

Különböző, kimondottan nagyvállalatok számára kínált MDM-megoldások leírásából is kiderül, hogy konkrétan tévhit, ami szerint az iOS rendszerek esetében under-the-hood kisebb a mozgástér, ha testreszabhatóságról van szó. Éppenhogy nagyobb, mivel az Apple-modellből nincs követhetetlenül sok, sőt, mindet előre felkészítették az enterprise környezetben való használatra is.

Informálisan is tudható, hogy ahol amellett döntenek, hogy iPhone-okkal látják el az alkalmazottakat, azokhoz licenszelik az MDM-csomagot, az Androidhoz képest kifinomultabb policyk állíthatók be olyan lehetőségekkel, amik a magánfelhasználók elől teljesen el vannak rejtve. Nehéz és csak konkrét esetben megválaszolható kérdés, hogy az iOS biztonságosabb rendszer-e. Itt azért nem úgy tenyészik a malware, mint a lepra, emellett az iOS zártsága miatt relatíve ritkábban találnak benne célzott támadásra ténylegesen kihasználható sebezhetőséget, amivel esetleg nagyobb kárt tud okozni egy felkészült támadó.

Az viszont biztos, hogy az Apple-eszközöket használó, azok MDM-jét felkonfiguráló IT-csoport kevésbé fog feszengeni, nem kevés munkaidejük szabadul fel azzal, hogy nem androidos eszközöket kell folyton állítgatni. Viszont ebben az esetben nyilván a termék darabára magasabb. Hasonló elvárások és hasonlóan 3 éves kifutás esetén könnyen lehet, hogy olcsóbban ússza meg a szervezet iPhone-okkal.

Azaz hasonló elvárásokért végül is hasonló árat kell fizetni, viszont a közvetett ráfordítás sokszor annyira áttételesen jelentkezik, hogy azt közel sem egyszerű megértetni.

Ember legyen a talpán, aki meg tudja mondani, hogy ilyen esetben melyik az ár-érték arányban kedvezőbb megoldás, pláne ha hozzászámítjuk az olyan közvetett, járulékos költségeket, mint amilyen az, ha 30 androidos eszközt teljesen gallyravág egy malware, vagy egyetlen iPhone-on keresztül történik egy súlyosabb adatlopás egy célzott támadás eredményeként.

A tantermi oktatási korszak vége

Az oktatás digitális áttérése megtörtént. Ez kész tény. Mivel bizonyítom? Egy kínai autóbemutatóval. Az idei pekingi autó show kiállításon 170 új elektromos autómodellt mutattak be. A benzines korszak véget ért, csak éppen ma még benzines autókat veszünk és gyártunk. Hasonlatos ez a jelenség ahhoz, amikor a filmes fényképezés ért véget, de még filmes fényképezőgépeket vásároltunk a boltban.

school-790216_960_720A tantermi oktatás megszűnt, csak még mindig tantermekben üldögélnek sokan, és nyomtatott könyvekből tanulnak. De akárhogy nézzük, egy korszak véget ért.

Egyébként a látszat ellenére a közoktatásban is véget ért a régi módszer, mégpedig azért, mert szakadék tátong a fiatalok információfogyasztási szokásai, és a XIX. századi oktatási módszertan között, és ezt a fiatalok már alig tűrik. A fiatalok a munkájukhoz és életükhöz szükséges dolgokat egyáltalán nem az iskolában tanulják meg, hanem vagy egymástól, vagy online, vagy az élet pofonai által. Az iskolában marad a napi magolás és a napi elfelejtés. A csiga testrészei? Ma bemagolom, holnap doga, holnaputánra elfelejtem. Arany János? Dettó. Szögfüggvények? Dettó.

Milyen tudás kell az életben, hogy a társadalom hasznos tagja légy? Csak néhány kiragadott példa:

Mi az az áfa, hogyan számolom, és hová kerül ez az összeg? Honnan jön az áram? Mi a magántulajdon, és hogy termelődik érték? Mi a különbség a napelem és a napkollektor között? Mi az az ezotéria, és miért esnek bele emberek? Hogyan működik a webböngésző? És a felhő? Mekkora Magyarország, de úgy ténylegesen, világviszonylatban, félretéve a Nagy Magyar Baromságot? Hogyan tároljam az ezer darab jelszavamat? Mi a társadalom? Ki hozta létre? Ki változtathatja meg? Megváltoztatható?

És még sorolhatnám azokat “tételeket”, amiket minden gyermek az élettől “húz ki”, aztán valahogy – többnyire úgy, hogy az adott tételről még soha nem hallott – vizsgázik.

És persze a csiga testrészeire sem emlékszik, meg a Toldira sem…

Miért fontos tudatosítanunk, hogy a tantermi oktatás korszaka véget ért?

Azért, mert az új világban a régi módszerek nem működnek. Konkrétan: a passzív módszerek nem működnek. Nem maradt a földkerekségen olyan ember, akik 20-40-100 órán keresztül képes passzívan ülni egy digitális oktatási rendszerben. Az online oktatás legnagyobb kihívása, hogy ottartsuk a résztvevőket a képzésen. Ha nincsenek a tanteremnek falai, és az oktatás unalmas, a résztvevők megszöknek.

A japán módszer

A japán módszer rávilágít arra, hogy a hagyományos oktatásban használt módszerek valójában sohasem működtek, de a zárt tantermi környezetben ez nem került napvilágra.

Tegyük fel, hogy van egy dárga és roppant bonyolult fényképezőgéped, amit az ismerősöd, aki nem tudja használni a gépet, kölcsönkér, mert Japánba utazik. Mindkettőtök közös érdeke, hogy ő csodálatos fotókat készítsen vele. Te vagy a tanár, a Te feladatod, hogy felkészítsd őt a a bonyolult gép helyes használatára. Három módszer közül választhatsz:

A.) Csinálsz egy PPT-t a fényképezőgép használatáról, majd leülteted egy székbe az ismerősödet, levetíted neki, közben magyarázol

B.) Megkeresed a neten a gép használati utasítását, ami egy 198 oldalas PDF, ezt elküldöd az ismerősödnek, jó utat kívánva neki.

C.) Fogod a barátodat, lenyomod egy székbe, kezébeadod a fényképezőgépet, és megmutogatod a mélységélesség, fehéregyensúly, expozíciókorrekció és hasonló beállítások hatását egy-egy kép elkattintásával.

Normális emberek nem választják sem az A.), sem a B.) megoldást. Nem feltétlenül tudják megindokolni, hogy miért, pedig a válasz egyszerű: mert az első két oktatási módszer egész egyszerűen nem működik. Soha nem is működött. 

Mégis mindig ezt látjuk egyetemeken, iskolákban, sőt már lassan az oviban is.

Egy marék PPT-vel felfegyverkezve nem lehet, sőt, nem is szabad nekifutni az online oktatásnak. A kudarc garantált. De ne tegyünk úgy, mintha nem tudnánk, miért.

Nincs olyan, hogy oktatás

Ha egy picit leszállunk a magas lóról, és kellő alázattal szemléljük az oktatást, olyasmit veszünk észre, ami elsőre nagyon megrendítő. Azt, hogy nincs olyan, hogy oktatás. Csak önkéntes tanulás van, amit mi, oktatók elősegíthetünk, valamint elfojthatunk. Senkibe nem lehet akarata ellenére tudást csöpögtetni, vagyis nincs olyan, hogy oktatás. 

Ha elfogadjuk, hogy nincs olyan, hogy oktatás, nagyot léptünk előre, mert egy csomó felesleges dolgot nem kell többé erőltetnünk, mivel úgysem működik. Például nem kell nagyelőadóban szónoklatokat tartani, mert belefutunk egy másik alaptézisbe, ami…

A szakértő tévedése

Valójában a hagyományos rendszerben sem működik az az oktatási forma, amikor a prof. kiáll, és nyomja a sódert. Honnan tudjuk, hogy nem működik? Hát az ilyen képzések eredménytelenségéből, amit persze a prof. is elismer, de hát a mai fiatalok, na szóval hígul a társaság, vagyis ezek hülyék mind.

Érdekes azonban, hogy a prof. hogy siklott teljesen tévútra. Ő bizonyára eszméletlen sokat tud a saját területéről, de ebből semennyit sem tanult úgy, hogy órákig ült, valaki más pedig órákig dumált neki. Nem, ő a tudását vagy a gyakorlatban szerezte meg, vagy sokat olvasott. 

A szakértő tévedése az a jelenség, amikor a szakértő úgy gondolja, hogy dumálással át tudja adni a tudását másoknak, noha ő sem így szerezte a saját tudását. 

A szakértő tévedése még egy felesleges és időrabló tevékenységtől megszabadít minket, vagyis az elméleti témakörök dumálós oktatásától. Az elméletről adjunk egy könyvet, vagy mossuk bele a gyakorlatba – de sose süketeljünk róla órákat.

Ha a duma nem megy, mit lehetne tenni helyette?

Vizsgáljuk meg, milyen digitális izék előtt képesek az emberek órákat eltölteni, és miért.

Digitális izék

Még mindig előkelő helyen van a tévé és a mozi, órákig elücsörgünk egy-egy filmsorozaton. A filmnézés teljesen passzív tevékenység, mégis ott ülünk, ha a történet leköti a figyelmünket és még autós üldözés is van benne.

Tehát ha az oktatás története lekötné a résztvevőket, és lenne benne autós üldözés, kutyus meg gyilkosság, minden oktatási videó megnézhető lenne. De ez sajnos nemcsak hogy nincs így, de szinte lehetetlen megvalósítani is.

Egy másik digitális eszköz, ami előtt órákig, sőt napokig ül az emberiség, a számítógép. A filmnézéssel ellentétben ez ritkán passzív tevékenység, sokkal inkább munka, szosöl izé, vagy játék (pl. zombigyilkolás), de mindenképpen olyasvalami, ami az “áldozat” aktív részvételét igényli.

Ha az autós üldözés nem kivitelezhető, akkor próbáljuk meg ezt a második utat, az aktivitást és bevonást. És bingó! Ha cselekvésre tudod késztetni, és munkában tudod tartani az online oktatás résztvevőit, 100-200 óra után sem szöknek meg! Na de hogyan?

Céltalan mütyür feladatokkal és tesztekkel csak ideig-óráig lehet fenntartani a figyelmet, ezért mondják sokan, hogy az e-learning halott. Amikor valaki akár 6-8 órában egyvégtében számítógépezik, akkor bizony ALKOT. A feladatunk tehát az, hogy az online oktatásba vigyük be az alkotás folyamatát.

Alkossunk!

Az online oktatás kulcsa, hogy a tanár és a résztvevők közösen alkossanak valamit. Mindegy, hogy mit, a lényeg a mester és a margariták közös munkája, és annak gyümölcse. Ha ez matekpélda, akkor az. Oldjuk meg együtt azt a nyomorult szöveges feladatot! Segítek!

A NetAcademia oktatói minden lehetséges esetben közös alkotásra buzdítják a hallgatókat. Ez a sikerünk titka. Bátran lehet koppintani.

Te is lehetsz igazságügyi informatikus?

igazsagugyi-informatikaMeglepő, de könnyen lehet, hogy igen, csak éppen nem tudsz róla. Ebben a posztban elmagyarázzuk, hogy bizonyos esetekben például egy büntetőeljárás folyamán a nyomozati szakaszban a rendőrség, az ügyészség, a vádemelést követően pedig a bíróság egy-egy szakkérdés megválaszolására nem olyan igazságügyi szakértőt kér fel, aki ezt a tevékenységet hivatásszerűen gyakorolja, hanem egy olyan civilt, aki esetleg az igazságszolgáltatás működéséről annyit tud, hogy a rendőrautón van villogó, a bíró talárban jár, az amerikai filmekben pedig kalapáccsal csapkod, amikor csendet kér a tárgyalóteremben. Hogyan adhat olyan szakvéleményt egy civil, ami esetleg nagyon komoly bizonyító erővel bír?

Először is érdemes átfutni, hogy ki járhat el szakértőként, és mikor alkalmazzák  őt egyáltalán? A törvény szerint:

eseti szakértő: olyan – az eljárásban megállapítandó vagy megítélendő jelentős tény vagy egyéb körülmény megállapításához vagy megítéléséhez – megfelelő szakértelemmel rendelkező természetes vagy jogi személy, aki nem igazságügyi szakértő; valamint olyan igazságügyi szakértő, aki az igazságügyi szakértői szakterületekről, valamint az azokhoz kapcsolódó képesítési és egyéb szakmai feltételekről szóló rendeletben meg nem határozott szakterületen ad szakvéleményt,

(4) Kivételesen az igazságügyi szakértői tevékenység ellátására megfelelő szakértelemmel rendelkező eseti szakértő is igénybe vehető, ha

a) az adott szakterületen nincs bejegyzett igazságügyi szakértő,

b) az adott szakterületen – időszakos hiány vagy egyéb szakmai ok miatti hiány okán – a bejegyzett igazságügyi szakértők egyike sem tud eleget tenni a kirendelésnek, vagy

c) az adott szakterület nem szerepel a miniszter rendeletében felsorolt szakterületek között.

Nagyon durván leegyszerűsítve abban az esetben, ha például a rendőrség, ügyészség vagy a bíróság egy szükséges tény megállapításához nem rendelkezik megfelelő szaktudással, olyan személyt kell bevonni az eljárásba, akinek ez a tudása megvan.

Magyarországon igazságügyi szakértői feladatot igazságügyi szakértőként, szakértőjelöltként, eseti szakértőként vagy szakkonzultánsként lehet végezni. A hivatásos igazságügyi szakértővé válásnak meglehetősen szigorú feltételei vannak, amivel most nem foglalkozunk hosszan.

Azt viszont érdemes megjegyezni, hogy a tevékenységük egészen elképesztően szerteágazó lehet. Igazságügyi orvosszakértőről már mindenki hallott, de gondoltad volna, hogy szükségessé válhat megállapítani, hogy a szemtanúk mennyire emlékezhettek pontosan egy eseményre? Vagy éppen egy angolul beszélő gyanúsítottnak, akiről nem tudni semmit, mi lehet az anyanyelve a beszéde alapján?

A hírekből tudni lehet, hogy egy nemrég történt robbantás elkövetője többször is átöltözött a robbantás előtt és után, szándéka szerint mindent megtett, hogy ne legyen felismerhető a kamerák által rögzített képen, azzal viszont alighanem nem számolt, hogy az ember járás közbeni testmozgása annyira egyedi, hogy az antropológus szakértők számára szinte mindig alkalmas az azonosításra.

Amit már ezen a blogon is érintettük, hogy az igazságügyi informatikus nemcsak a böngésző gyorsítótárát, de akár a gép memóriájának tartalmát is le tudja dumpolni, mivel megvan rá a megoldás, hogy hogyan foglalható le egy gép olyan módon, hogy ne kelljen kikapcsolni.

 

Ennek nem kicsi a jelentősége, ha belegondolunk, hogy alkalmazhat valaki bármilyen überszuper titkosítást, a titkosítás feloldásához használt kulcsoknak nyilván be kell töltődniük a memóriába. A NetAcademia egyik kurzusán is emlegettünk már igazságügyi nyelvészeket, akik például névtelen, persze nem kézzel írott levelekről a nyelvhasználat alapján valószínűsíteni tudják a szerző több pszichológiai sajátosságát, iskolázottságát, amivel nagyban szűkíthető a lehetséges elkövetők köre.

Azt gondolnánk, hogy nem lehet elképzelni annyira elborult, speciális kérdést, amire ne lenne igazságügyi szakértő. Mégis előfordulhat, hogy annyira speciális szakkérdést kell megválaszolni, amit a névjegyzékben lévő szakértőnél jobban ismer egy civil a tevékenysége folytán. Egy kevenc példával folytassuk, ha már korábban szó kerültek a honeypotok.

Gondoljunk csak bele, elképzelhető, hogy valaki csali szervereket, ún. honeypotokat bütyköl, esetleg köt hálózatba, majd azt figyeli, hogy a rajta futó rendszert milyen módszerekkel próbálják feltörni. Ez rögzíthető, így többek közt mintát lehet venni, hogy például adott tartalomkezelő rendszert vagy sokkal komolyabb, komplett ERP-rendszert feltörni próbálók hogyan próbálják elkövetni a behatolást.

Ebből gyakran lehet következtetést levonni a támadó felkészültségével, sőt, sokszor a motivációival kapcsolatban is. Ha valaki birtokában van egy kellően nagy betörési mintázat-gyűjteménynek, az igencsak hasznos lehet olyan esetben, amikor ténylegesen feltörnek egy ERP-szervert, levelezőszervert, routert, bármit, mivel a korábban rögzített betörési patterneket összehasonlítva azzal, ami a tényleges betörésről tudható, az elkövetés módja alapján ismét szűkíthető a lehetséges elkövetők köre.

A példában a honeypot-üzemeltető azért alkalmas eseti szakértőnek, mert rendelkezik a megfelelő tapasztalattal, és olyan tudás birtokában van, aminek az igazságügyi szakértő nem. Ez pedig a honeypotokon keresztül szerzett tapasztalata.

Elképzelhető olyan eset is, amikor a nyomozók már tudják, hogy egy nem túl eszes, ámde annál veszélyesebb figura kényelemből a kommunikációját jórészt a Facebookon folytatja. Ekkor indokoltnak tűnik, hogy titkos információgyűjtést és a titkos adatszerzést alkalmazzanak, azaz például a Facebook Law Enforcement Online Request formon keresztül adatkéréssel forduljanak a Facebookhoz, amelyik elbírálja a kérés indokoltságát, aztán akár megtagadja azt az adott ország hatósága előtt, akár teljesíti, az érintett felhasználót mindig értesítik (igaz, utólag), de eléggé világos, hogy sérti a nyomozás érdekeit, ha valaki tud róla, hogy rajta vannak.

Lehet benne valami, hogy a Facebook illetékes alkalmazottjainak az adatkérések teljesítésekor nem kell többet gondolkodniuk, mint a moderátoroknak moderáláskor, mivel az adatkérések tényleges indokoltságát nem tudják szakszerűen megállapítani.

Ami a statisztikát illeti, ezt ugyanúgy nem lehet megállapítani, mint azt, hogy ez az eljárás egyáltalán az összes adatkérésre vonatkozik-e vagy csak a mezei büntetőeljárásokra alkalmazzák, de nem tartalmazza a polgári- vagy katonai nemzetbiztonsági szervek adatkéréseit. A Magyarországgal kapcsolatos adatkérések a 2017-es évre vonatkozóan itt érhetők el.

Alapvetően az adatigénylés vagy eredményre vezet vagy nem, ráadásul a folyamat igencsak időigényes is lehet. Ugyanakkor a hatóság alkalmazhatja a blogon már emlegetett nyílt forrású információszerzés kevésbé ismert módszereit, vagy rábízhatja olyan civilre, aki ilyen területen magas szintű jártasságot szerzett. Természetesen nem arról van szó, hogy ekkor az eseti szakértőként eljáró civil átvenné a nyomozást, de olyan információkat szolgáltat, amik nagyban megkönnyíthetik a nyomozók dolgát számos olyan információ előbányászásával, amit ők maguk nem, vagy csak ésszerűtlenül sok ráfordítás mellett tudtak volna elvégezni.

Lényegében csak meglehetősen elborult esetek zárják ki azt, hogy valakit a megfelelő szaktudása ellenére mégse alkalmazhassanak eseti szakértőként, ha szükség lenne rá. Ilyen például, ha éppen olyan büntetőeljárás folyik ellene, aminél már megtörtént a vádemelés is, esetleg priuszos, vagy nem várható el tőle, hogy a feladatot kellően diszkréten végezze el.

A sok-sok évet tanult igazságügyi szakértő nem hülyébb vagy okosabb az eseti szakértőnél, hanem egyszerűen a tudásuk másra terjed ki. Ugyan aki járt már el eseti szakértőként, jó, ha gyorsan képbe kerül a büntető eljárásjog, büntetőjog, kriminalisztika alapjaival, ezen kívül tudja, hogy mik azok az formai hibák, amiket nem szabad elkövetni.

Hogy csak a legegyszerűbbet említsük, a terheltnek a vádemelést követően iratbetekintési joga lesz, azaz minden dokumentumot megismerhet, ami a nyomozati szakaszban keletkezett, aminek persze része a nevén nevezett eseti szakértő szakvéleménye is. Az eseti szakértő pedig vagy kérheti az adatai zárt kezelését vagy sem, viszont indokolt lehet, hogy a vádlott ne ismerje meg a személyazonosságát, ha éppen az eseti szakértő véleménye kulcsfontosságú volt a bizonyítás során. Az alapján is dönt majd úgy a bíró, hogy a vádlottat sittre vágja mondjuk 15 évre, aminek az elítélt annyira nem fog örülni.

Hasonlóan, az eseti szakértő akkor tud hatékonyan működni, ha az igazságügyi szakértővel értik egymás nyelvét, tisztában van a bizonyítástan alapjaival és így tovább.

etikus-hekkelesA végére hagytunk egy nagyon fontos részletet. Ha egyszer eseti szakértőként jársz el, még akkor se tedd ki a kirakatba, ha egyébként nagyon-nagyon jól mutatna a CV-ben, na meg a LinkedInen. Már nem a 90-es években vagyunk, amikor a szervezett bűnözésnek még volt lehetősége a fegyveres rendvédelmi szerveknél dolgozókra is nyomást gyakorolni, zsarolni őket, ilyentől egy állományban lévő zsarunak, igazságügyi szakértőnek nem kell tartania különösebben.

Inkább csak filmekben fordul elő, hogy a hűvösről kijön az elítélt, aztán  kellemetlenkedni próbál például egy nyomozóval, már csak azért sem, mert a bűncselekményeket a törvény tipikusan súlyosabban bünteti, ha azt hivatalos személy ellen követik el.

Az eseti szakértő nem hivatalos személy, de alapvetően nem kell tartania attól, hogy lófejet talál a párnáján egyik reggel. Ha pedig megpróbálnak borsot törni a korábbi eseti szakértő orra alá, szinte megállapíthatatlan, hogy a cél és motiváció egyáltalán összefügg-e azzal, hogy eseti szakértőként járt el valakinek az ügyében és olyan bizonyítóerővel rendelkező információt tett az ügyész vagy a bíró elé, amitől leszakadt az asztal – vagy teljesen másról van szó.

Nem zárható ki azonban, hogy polgári perben az alperes, büntetőügyben a gyanúsított vagy vádlott egyszerűen a megfélemlítés, bosszú okán olyan helyzetbe hozza az eseti szakértőt, hogy az végül is megsértse a törvényt. Például azzal, hogy ízesen elküld valakit melegebb égtájra többek előtt, esetleg lecsavar a kellemetlenkedőnek egyet, ha pedig feljelentik, könnyen eleshet emiatt egy ideig attól, hogy szakértői tevékenységet végezhessen.

Ugyanakkor tanulni érdemes, tudni kell, alkotni jó, eredetit alkotni még jobb, közben pedig a legkülönbözőbb területeken tehet olyan szaktudásra szert valaki, amit kamatoztathat az igazságszolgáltatásban. Nagyon jó alapot jelenthet erre, ha valaki elkezd foglalkozni például az etikus hekkeléssel, aztán ha Justitia és Sevillai Szent Izidor is úgy akarja, akár rendszeresen felkért eseti szakértő is lehet, amivel ugyan nem keres vagyonokat, az igazságszolgáltatás világában olyan dolgokat tanulhat meg, olyan szemléletmódra tehet szert, amilyenre máshol nem lenne lehetősége.

Ha pedig valakit beszippantott az igazságszolgáltatás világa, sosem késő arra a pályára állni, még ha sok-sok olyan dolgot is kell megtanulni a szakértőjelöltnek a szakértővé váláshoz, ami az elején fölöslegesnek tűnik.

képek: Wikipedia, ec.europe.eu