Az AI-ról, komolyan II: a lexikális tudás felértékelődése a jövő döntéseiben

microsoft_power_biParadoxonnak tűnik? Nem az. Magyarázzuk. Alighanem már azzal kapcsolatban is csak nagyon óvatos becslést lehetne adni, hogy mennyi olyan, komplett, gyakorlatilag minden üzleti igény kielégítésére fejlesztett, tág értelembe vett ERP megoldás van, ami fut a felhőben, a legszárazabb adatsorokból is képes színes-szagos vizualizált chartokat készíteni, épphogy kávét nem főz, olyan mértékben segíti a döntéselőkészítést és döntéshozást, hogy azoknak akik a döntéseket meghozzák, csak azzal kell foglalkozniuk, hogy biztosan a legmegfelelőbb információkkal tömték-e meg a szolgáltatást, megfelelő módon.

Ezek közül nem emelnénk ki sokat, a Microsoft és az Atlassian azért vált piacvezetővé komplett megoldásoknak a piacán, mert a legjobban sikerült eltalálniuk, hogy a különálló szolgáltatásaik hogyan drótozhatók össze a legjobban. Megoldást kínálnak az ilyen szoftverrendszerek használatában jártas és kevésbé jártas felhasználóknak egyaránt, néha tényleg a bőség zavara lehet a benyomásunk. Példaként egy feladat megoldásának bonyolultságától, jellegétől függően szükség lehet a MS Projects bevetésére, de nagyon könnyen előfordulhat, hogy a feladat valójában a sokkal egyszerűbb – na meg kevésbé ijesztő – Microsoft Plannerrel is megoldható.

Azt is mondhatnánk, hogy szomorú, de annyira igaz, miszerint az adat gyakorlatilag onnantól ér valamit, hogy vizualizálva van vagy legalábbis minél gyorsabb megérteni. Nincs ebben semmi meglepő, az ember agya ugyan magas szintű absztrakciókra képes, mégis sokkal könnyebb, ha valamilyen eszközzel megjelenítetük a láthatatlant, az adat vizualizálva nyer értelmet ténylegesen sokak számára.

Nem tudni, hogy mennyire lehet komolyan venni azt a kutatást, amiben igazolták, hogy nagyon hasonló tudománymetriai jellemzőkkel rendelkező cikkeket annál kevésbé hivatkoznak más kutatók cikkei, minél több matematika összefüggést, konkrétabban pedig képletet tartalmaznak, holott a kutatók körében ezek készségszintű értelmezése mindennapos gyakorlat. Szubjektív, de ez még bocsánatosabb lehet az olyan tudományterületen, ahol köztudottan szeretik a minél pontosabb ábrázolást, a számokat pedig annál kevésbé, sokszor pedig ezek azok az olvasók-kutatók azok, akiknél néhány tizedmilliméteren és a másodperc töredékén múlik, hogy meg tudják-e menteni a beteg életét: a sebészek, akik nyilván sebészeti szaklapokat olvasnak. Gaál Csaba Szakírás című zseniális könyvében részletekbe menően tárgyalja a témát.

Arra viszont már ember nem gondolna, hogy azokat a matematikai cikkeket más matematikusok (!!) kevésbé hivatkozzák, amikben több a képlet, ennek megfelelően kisebb arányt foglalnak el a teljes cikkben a magyarázó szövegek és ábrák. A matematikusok! Szinte hihetetlen, de tényleg így van, profán módon megjegyezhetnénk, hogy legalább ebből tudható, hogy ők is emberek.

Ha külcsínyről van szó, a Microsoft több, nagyon hasonló szolgáltatása közül a Power BI-t nem véletlenül övezi siker: gyakorlatilag bármilyen ma használatos adatforrásból importálhatunk bele adatokat, majd azt a legkülönbözőbb nézetek szerint jeleníthetjük meg, végezhetünk vele műveleteket, generálhatunk reportokat. Vegyük észre, hogy az egyszerű Excel okosodása sem új jelenség: a meghívókódokkal elérhető Tudástárban több videót bemutattunk, amiben az alkalmazás gyakorlatilag kitalálja a felhasználó szándékát: a FlashFill nem csak logikusan, értelmesen tölti ki egy oszlop sorait, megint másik funkció ötletet ad azzal kapcsolatban, hogy a nem megfelelő formában lévő adatokat hogyan bonthassuk pontos rendbe, külön-külön oszlopokba, nyilván anélkül, hogy mindnél ugyanazt az esetleg lélekölő többlépéses műveletet kellene elvégezni.

A Power BI is bevezette a Natural Language Query-t, ami több, mint fícsör: gyakorlatilag a felhasználó megfogalmazza, hogy milyen megjelenítést szeretne vagy milyen műveletet végezne el, a Power BI pedig prediktálja a lehetőségeket, majd egy kattintás és máris pontosan az látható és úgy, ahogyan szeretnénk, aminek a jelentősége felmérhetetlen, ha például egy executive reportba kerül majd az anyag.

Nem vinnénk el nyelvészkedős irányba a posztot – már megint 🙂 – de figyeljük meg, hogy emögött mennyire komoly nyelvtechnológiát kellett bevetni valamint azt, hogy adódott egy üzleti-informatikai kihívás, amire lényegében a nyelvtudomány adta a megoldás alapját, holott évekkel-évtizedekkel ezelőtt, amikor még senki sem hitte volna, hogy ennyire okosak lesznek a gépek, nem még azt, hogy ilyenre szükség lesz. Érdekes történeti kitekintés, hogy az Oracle is onnan kapta a nevét, hogy egyfajt orákulumként bármilyen kérdésre meg tudja adni a választ, ha az megfelelően formalizált. Az NLQ esetén viszont még formalizáltnak sem kell lennie.

Ahogy a 20. század elején úgy gondolták, hogy hamarosan elég lesz napi 4 óra munka is, aztán az új technológiák újabb kihívások elé állították az embert, egy hasonló jelenséget figyelhetünk meg, viszont bizonyos szempontból, egy parafrázissal élve éppen “kifordítva”. A bankba érkező ügyfeleknek sorszámot pecsételő néni elvesztette az állását azzal, hogy a sorszámokat már automata köpködi ki, viszont annak az automatának az ellátási láncot biztosítani kell, néha javítani, fejleszteni. Maradva a pénzintézeteknél, amikor a számlák adatait papírról vagy más hordozóról átköltöztették gépekre, majd mai értelembe vett adatbázisszerverekre, nyilván okafogyottá vált azoknak a munkája, akik addig papíron rögzítették a pénzügyi műveleteket, abban az időben úgy gondolhatták sokan, hogy az adatbázisszerverek tömegesen váltották fel az emberek munkáját, úgy gondolva minderre, mintha ezzel a feladattal nem kellene foglalkozni a továbbiakban, ami nyilván megmosolyogtató, hiszen továbbra is kell hozzá az ember, csak más mindsettel. Kellenek helyettük emberi erőforrásként az egymással versengő adatbázismotorok fejlesztői, adatbázis adminisztrátorok és így tovább.

E sorok írója nem vallotta soha, amit sokan dogmaként fogadnak el, miszerint a gépek a feje tetejére állították és állítják világot az ipari forradalomtól kezdve rendszeresen – pontosabban abban egyetértünk, hogy változás van, a világ változásának üteme pedig felgyorsult a 18. századtól kezdődően, csak teljesen mást értek alatta én. Például az ipar 4.0-nak nevezett jelenség, egy korszakhatárt jelöl ki és segít didaktikailag jobban értelmezni azoknak a változásoknak az együttesét, amik korábban nem voltak, de szó sincs róla, hogy itt valami annyira különleges forradalomról lenne szó, ami teljesen más szemléletmódot igényel, mint a korábbi forradalmak.

Kitekintés után vissza a lényeghez: amikor a gép emberszerű viselkedést mutat, például értelmez egy szóban feltett kérdést, manapság a tömeg hajlamos azonnal mesterséges intelligenciának nevezni, mert ez az aktuális fancy. A Power BI használata közben is ez történik, amikor NLQ-ban kérdezünk a szoftvertől, ő pedig válaszol. Viszont! Vegyünk észre egy rendkívül fontos dolgot. Hogy minél pontosabb előismeretekkel kell rendelkeznünk ahhoz, hogy megfelelő kérdéseket intézzünk a géphez, ahol ugye nem kizárt, hogy irreleváns vagy teljesen hülye kérdésekre is képes intelligens, azaz lényegében megfelelő következtetésekből keletkezett információkkal választ adni, de összességében nem arra válaszol, amire ténylegesen a felhasználó kíváncsi volt. Itt jön, amire az mondhatnánk, hogy nem kis kockázatot hordoz magában.

Sokszor még rokon szakmák képviselői sem értik eléggé egymás nyelvét, például az ügyfél megfelelő szaktudás hiányában nem tudja megfogalmazni egy fejlesztőcsoportnak az üzleti igényeit, jobb esetben úgy kell kibogozni, hogy mit akar az ügyfél, aztán közösen összetákolnak valamit, amiből idővel szoftverspecifikáció lesz. De rosszabb esetben megszűnik az együttműködés, persze anélkül, hogy világossá válna, hogy valamelyik fél nem értette a másik igényeit.

Az ilyen esetek közös, hogy a gyakran lenézett lexikális tudás hiányáról van szó. Akár Power BI, akár egyéb hasonló, döntéstámogató eszköz nyelvi feldolgozóját, mint beviteli perifériát nem tudjuk megfelelően használni, de ezt senki sem észleli időben, szinte tetszőleges méretű szervezet esetén rendkívüli károkat okozhat. Ha valakinek köszvényesek az ujjai, nem tud megfelelő sebességgel billentyűzni, egerezni, nyomkodni az érintőkijelzőt, ez azonnal kiderül. Beszélni viszont szinte mindenki tud és közel sem annyira triviális megállapítani, hogy az adott kontextusban például egy kérdés mennyire releváns, szakszerű, értelmes, ha pedig egy másik ember számára sem, a gép számára pláne nem az.

Elővehetjük a projektmenedzsmentet, aminek az 50-es évektől kezdőden kialakult, saját, szabványosított keretrendszere, terminológiája alakult ki, hasonlóan a könyveléshez, audithoz, minőségmenedzsmenthez. Tételezzük fel, hogy egy középvezetői pozícióban lévő alkalmazott nem rendelkezik megfelelő tudással valamelyik területen, egyszerűen azért, mert nem törte magát egy száraznak tűnő könyv tartalmának alapos átolvasásával az egyetemen, arra gondolva, hogy “úgyis minden ott a neten”. Ilyen esetben valósággá válik, amit korábban inkább csak iróniaként emlegettek: az okoseszköz tényleg okosabb lesz, mint a használója, mert a felhasználó még emberi nyelven sem képes megfelelő kérdéseket feltenni, amiből a gép helyesen prediktálni tudná, hogy valószínűleg mit akar csinálni a felhasználó.

Konkrétabban: adott egy pénzügyi területen dolgozó középvezető, akinek a pénzügyi ismeretei nincsenek az elvárható szinten, viszont ha valamit eltolt, gyorsan korrigálták 10-20 évvel ezelőtt. Ha ugyanez a pénzügyi területen dolgozó középvezető egy részfolyamatot végezve egy halom adaton ülve nem tudja, hogy mit kellene vele kezdeni, a megszokásaira támaszkodik, majd ennek megfelelően nem a legmegfelelőbb kérdést teszi fel a gépnek, ami erre válaszol, a részfolyamat eredménye végülis igaz lesz, csak nem az az információ, amire ténylegesen szükség van, majd ez egy másik részfolyamat bemenete lesz és így tovább. Nem nehéz belátni, hogy nagyon kevés számú részfolyamat után, amikor tájékozatlanul kérdeztett és a szigorú racionalitás szerint valid, ámde nem a megfelelő választ kapta vissza, ha a teljes munka végén ki is szúrják a hibát valaki, szinte visszakövethetetlen, hogy hol volt eredetileg. Ráadásul addigra már a pénzügy a származtatott információkat továbbította más funkcionális részlegek felé.

Ha több pénzügyes dolgozik egy-egy feladat megoldásán, akkor sem biztosan nagyobb az esély arra, hogy időben kiszúrják, hogy betévedtek egy barlangba. Elég felidézni a viselkedésökonómia nagyjainak meglehetősen egyöntetű véleményét azzal kapcsolatban, hogy az ember minden racionalitás ellenére hajlamosabb elfogadni az egyszerűbb, jelen esetben egyszerűbben értelmezhető magyarázatokat, gyakran függetlenül attól, hogy ennek mekkora a tétje.

Példánkban a gép nemhogy nem hibázott, hanem pont azt lehetne “felróni” neki, ha ember lenne, hogy nem eléggé felkészült felhasználók kérdéseire is magabiztosan válaszolt, ami emberi szempontból felelőtlenség. A gondolatkísérletet folytatva a legrosszabb esetben egyetlen, középvezetői részleg hülye kérdéseinek hatásai lassan, de megállíthatatlanul eszkalálódó káoszt okoznak a cégen belül, a felsővezetés eleve a formálisan helyes, de felkészületlenül feltett kérdésekre kapott információkat kapja meg, mint bemenetet, ennek megfelelően is fogják meghozni a döntéseiket, aminek a következménye akár a cég összeomlása is lehet.

Gyanítjuk, de nagyon úgy tűnik, hogy a lexikális tudásra még nagyon-nagyon sokáig szükség lesz, csak éppen a szerepe helyeződik át teljesen, a jelentősége nem.

Amikor elterjedt a logarléc, a matematikatanárok attól tartottak, hogy a gyerekek sokkal hülyébbek lesznek, leszoknak a gondolkodásról, ugyanez megtörtént az első elemes számológépek terjedésekor és folytathatnánk a sort. Ugyanakkor világos, hogy lehet akármilyen okos például egy számológép – vagy gondoljunk csak a Wolfram Alpha-ra – ha az embernek nincs meg a megfelelő tudása ahhoz, hogy jól tegye fel a kérdést, eleve nem kaphat választ olyanra, amire ténylegesen kíváncsi.

Buborékeffektus: hogyan írjuk és olvassuk a webet? És hogyan kellene? 

Ez a cikk technikai és filozófiai oldalról is feszegeti a buborékeffektusnak hívott jelenséget. Leegyszerűsítve: mindenki azt olvas a neten, amivel már korábban is egyetértett, mert a gépi ajánlócuccok, legyen az egy kereső, híraggregátor, vagy egy social site, “kedveskedni” akarnak nekünk. Vajon tényleg baj-e, hogy a neten szinte sohasem futunk bele olyan tartalmakba, amik a saját világképünkkel összeegyeztethetelenek? Nos, lássuk!

netacademia_tanfolyamkereso.png

A web olvasására általános recept nincs. Viszont az ideális eszközök és források ismérvei eléggé világosak: valóban friss cikkek címeit dobják elénk, lehetőleg olyan független forrásokból, amik lényegében a hitelességükből és alaposságukból élnek, ugyanakkor figyelnek a tartalmaik előállításánál a közérthetőségre is.

Alighanem nagyon sokan nem tudják, de a világ két, jóideje legpatinásabb tudományos folyóirata, a Science és a Nature szerkesztőbizottságai több esetben Nobel-díjas kutatók cikkeit akár többször is visszadobják a cikk formába hozásához, mielőtt kiadnák. Másrészt mindkettőnél van egy olyan feltétel, amire alighanem ritkán gondolnánk. Igaz, a Nature és a Science több cikke olyan, ami nem, vagy csak nagyon nehezen érthető azon olvasók számára, akik nem kimondottan az adott szakterületen mozognak, viszont mindkettőnél az alapítása óta kőbe vésett elvárás, hogy a cikknek olyannak kell lennie, ami a tudományos közösség érdeklődésére számot tart, függetlenül attól, hogy milyen tudomány művelője.

Ennek megfelelően pattant már vissza olyan cikk is, ami aztán egy olyan munkásság része volt, amiért Nobel-díjat ítéltek oda, de a cikk túlspecializált volt, nem felelt meg az előbbi feltételnek.

A felvezető olyan módon kapcsolódik ide, hogy sajátos módon azok az online lapok élték túl vígan a dotcom-lufi kidurranását, na meg konkrétabb, sokkal komolyabb behatásokat, és maradtak a legmeghatározóbb hírforrások, amik ha nem is koppintják a Nature és a Science mintáját, nem tudományos lapok, viszont alapelveikben nagy mértékben hasonlítanak azokhoz: az olvasóközönség érdeklődésének fenntartása fontos cél.

Természetesen hacsak valaki nem végtelen sok idővel rendelkezik, vagy unalmában böngészik a neten, nem nézegethető végig az összes meghatározó portál összes rovatának összes cikkje a leaddel, erre találták ki a feedolvasókat.

Amint egy oldalon megjelenik egy új cikk, annak elkészül egy feedolvasó által olvasható kivonata, ami a legegyszerűbb esetben csak a cikk címe és URL-je, esetleg emellett a lead, ami lehet a cikk első néhány mondata. Emellett annak sincs akadálya, hogy a cikk írója egyfajta excrept-et írjon, ami esetleg nem is szerepel a szövegben, kimondottan a feedolvasónak szánt néhány szavas kivonat, ami a cikk tartalmát minél jobban leírja.

Világos, hogy a jól eltalált címadás és az első néhány mondat mekkora jelentősséggel bír, hiszen az olvasó a mai információs kavalkádban ez alapján dönt egyáltalán arról, hogy kattint-e vagy sem, akár egy hírportál webes felületén jelenik meg, akár a feedolvasóban. Sokáig többen, közülük néhányan statisztikai alapon, megint mások egyszerűen empirikus alapon azon az elven voltak, hogy a cím nem lehet hosszabb 6 szónál, megint mások erre alaposan rácáfoltak, míg a komolyabb írásoknál nem ritkák az ennél sokkal hosszabb címek sem.

A tartalomfogyasztó, aki akár kimondottan hivatásos tartalomgyáros egy szerkesztőségben, akár olyan tartalomfogyasztó, aki egy-egy szakterület híreivel kapcsolatban szeretne előbb képbe kerülni, mint a többiek, akár hagyományos újságolvasó, bizonyos értelemben egyre jobban elkényelmesedett az évek során, amiben semmi meglepő nincs, elvégre tartalommal tele a padlás, unikális tartalomból már jóval kevesebb van. Az újonnan megjelent, kimondatlan igények kielégítésére több technikai eszköz is keletkezett, amiket ha hirtelen kötelező lenne nagy, ámde nem feltétlenül markánsan különböző csoportokba lehet sorolni, a következők lennének:

  • buta hírolvasók – a feedolvasó mintájára előre összegereblyézi a híreket, de nem különösebben veszi figyelembe a tényleges tartalomfogyasztási igényeket
  • curated content – a felhasználó beállíthatja, hogy milyen Twitteres, Google Plus-os, LinkedIN-es influencerek, vagy éppen az adott szolgáltatás editor’s pick-jéből választott források kerüljenek elé
  • gépi tanulással támogatott, intelligens hírolvasók vagy híraggregátorok – a kategória nagy öregje, a Flipboard és klónjai, ami a regisztrációt követően feldob számos cikket, amiről feltételezi, hogy érdekelhet mindket, majd minden mozzanatunkat figyeli és meglepően rövid gépi tanulást követően már csak kimondottan minket érdeklő cikkeket fog ajánlani. Mondani sem kell, hogy minden ilyen megoldás több mint addiktív lehet, de más hatásai is vannak, aminek a tárgyalására kicsit később térünk vissza. Flipboard-klónból pedig ugyancsak van bőven.

A gépi tanuláson keresztül ajánlgató szolgáltatások persze annál precízebbek, minél több adattal etetik őket, azaz ők maguk minél gyorsabban indexelik az újonnan megjelent cikkeket a web minden tájáról, valamint minél több felhasználó használja őket, minél több ízléséből tudnak tanulni.

A korábban hagyományos formájában sok-sok év után kinyiffantott, majd más formában ismét megjelentetett Google Readert  kezdetben azzal támadták a legnagyobb lapkiadók, hogy a Google az üzleti érdekeiket sértik azon keresztül, hogy a Google saját felületén jeleníti meg azokat, ilyen módon tartalomszolgáltatóként jelenik meg. Nem telt bele sok idő, amikor már azért lobbiztak a legnagyobb lapok, hogy kerülhessenek fel a Google Reader/NEWS által ajánlgatott részbe valamilyen módon.

A Google Readert hiába használták napi rendszerességgel és szerették felhasználók tízmilliói, a cég a szolgáltatást a hagyományos formában ki is végezte, igaz, utána újraindította más formában. A Google által kinyírt szolgáltatások sorába tökéletesen beleillik: nem tudtak olyan mennyiségű, több köztes lépésben hirdetéstargetálásra használható információt kinyerni a felhasználók olvasási szokásaiból, ami alapján gazdaságos lett volna életben tartani a szolgáltatást, holott többek szerint ehhez önmagában csak Gmail-ből, Google Analytics-ből, Chrome-ból és a keresőből származó információk automatizált kinyerése is elegendő lenne a Google több száz szolgáltatása közül.

A Google mint sok más területen, itt is komolyan kockáztatja a hasonló szolgáltatást kínáló vetélytársainak talpon maradását. A vetélytársaknak tehát valami olyat kell villantaniuk a felhasználóik felé, amit a Google hasonló szolgáltatása éppen nem tud vagy valahogy eltérő módon tudja.

Láttunk már példát a legkorszerűbb machine learning technikákra építő szolgáltatásokra, amik nem is világos, hogy miért buktak el. Többen napi rendszerességgel használták a Prismatic-ot amibe valósággal öntötték az adatokat, a befektetők a pénzt, a legpatinásabb oldalak az egekbe magasztalták, mégsem tudott megmaradni a piacon.

Ha valaki életében először használna internetet, és mondanunk kellene valamit azzal kapcsolatban, hogy melyik oldalt nézze meg életében először, a Flipboard mellett alighanem a RightRelevance lenne az.

Némileg más logika mentén ugyan, de a Flipboardhoz hasonlóan a felhasználó ízlésére, tartalomfogyasztási szokásaira épít, másrészt meg lehet jelölni olyan influencereket, akiknek a tartalmaira biztosan kíváncsiak vagyunk.

Megjegyzendő, hogy a világ a tartalomszolgáltatás piacán globális színtéren sem igazságos: a Business Insider, a Mashable és sok-sok más news outlet szinte mást sem csinál, csak tőlük patinásabb lapoktól csen át híreket, amiket aztán hülyeségig egyszerűsít, rövidít, ennek megfelelően sokkal nagyobb olvasói bázishoz jut el, persze összehasonlíthatatlanul nagyobb árbevétellel és összehasonlíthatatlanul kisebb hozzáadott értékkel. Az egyediség, az érték és az eladhatóság gyakorlatilag sosincs egymással összhangban.

Jól ismert sajátosság, hogy a tartalomfogyasztási szokások nem nagyon változnak. A nagyon sok ok közül kiemelendő, hogy az olvasó nyilván azokat a forrásokat fogja preferálni, amik egybehangzanak a véleményével, mi több, megerősítik egy témával kapcsolatos hitében, ilyen módon az önképében is. Természetesen nem csak politikai tartalmakról van szó. Ez az egyszerűsített magyarázata annak is, hogy a legelborultabb konteók, mint amilyen a lapos Föld hívők  vagy éppen az oltásellenesség miért tartja magát olyan stabilan.

Azaz javarészt olyat olvasunk és nézünk, amivel általában egyetértünk, ez viszont bizonyos értelemben buborékba, méghozzá minden korábbinál áttörhetetlenebbnek tűnő intellektuális buborékba zár minket, és persze az újonnan megszerzett információk befolyásolják a vélekedésünket nemcsak egy adott terület kapcsán, hanem olyan területeken is, amire nem is gondolnánk. (A jelenséget egyébként először a netes kereséskor észlelték és kezdték kutatni.)

Példaként egy igen szűk szakterület magasszintű képviselői közt sincs egyetértés abban, hogy Edward Snowden inkább hős vagy inkább hazaáruló. De a jelenség megfigyelhető olyan területeken is, amik úgymond sokkal kisebb mértékben hitkérdések, hanem akár tisztán szakmai kérdésnek tűnnek, ahol látszólag nincs helye egymásnak szögesen ellentmondó véleményeknek. Ha valaki rendszeresen arról olvas, hogy a Java-s technológiák jobbak összességében, mint a C#-on alapulók, sokkal inkább fog hajlani arra a véleményre, hogy a Java alkalmasabb valaminek a megvalósítására, amikor valójában nem.

Az elmúlt néhány évben totálisan feje tetejére állította a biotechnológiát és a molekuláris biológia egészét a CRISPR/Cas9 technika, amivel lényegében ugyanúgy génmanipuláció végezhető, mint számos más módszerrel, viszont a korábbiakhoz képest sokkal pontosabban, gyorsabban és olcsóbban. Olyannyira, hogy a világ biztonságáért felelős csúcsszervek korábban  és nemrég ismét összeültek a lehetséges kockázatok elemzésére, amit a piac is megérzett, de ahhoz sem kellett sok idő, hogy megszülessenek az első gyerekek, akiknek a génállományába még embrionális korukba nyúltak bele, így megelőzve egy súlyos megbetegedést.

Ez utóbbi azért sajátos, mert az emberi génállományba való beavatkozás a világ minden országában nagyon súlyos bűncselekménynek számít, hacsak nem gyógyászati célú. Gyógyászati cél ide vagy oda, korábban kivételszámban fordultak elő az olyan esetek, amikor ivarsejtek, egy születendő vagy már felnőtt beteg testi sejtjeinek génállományát próbálták megváltoztatni, és sikerrel is jártak.

A CRIPSR-technika olcsósága és egyszerűsége miatt felmérhetetlen lehetőségek nyíltak meg, ennek megfelelően logikus lenne arra gondolni, hogy erre tér át mindenki, ehhez képest viszonylag lassan kezdték-kezdik alkalmazni a gyakorlatban, különösen az alapkutatásban. Ez pedig aligha vezethető vissza arra, hogy a biológusok inkább használják az általuk már megszokott, jól bejáratott módszereket. Ugyan minden racionális érv amellett szól, hogy a kőbalta helyett a kalapács az alkalmasabb, a megszokások mégis lassan változnak.

Egy lehetséges magyarázatunk az, hogy tengernyi mennyiségű cikk jelent meg azzal kapcsolatban, hogy az új módszer mekkora kockázatokat rejthet, ha azt konkrétan terroristák kezdik el használni. Ha pedig egy-egy biológus jókora dózisú cikket olvasott a témában, ettől aligha tud teljesen elvonatkoztatni, még ha racionálisan úgy is gondolja, hogy igen.

Akár egy intelligens híraggregátort használunk, akár egy buta, de user friendly hírolvasót, szükségszerűen buborékba zárjuk magunkat. A feedolvasónál eléggé világos a helyzet: kézzel válogatjuk be azoknak a lapoknak a rovatait, aminek az újonnan megjelenő cikkeiről azonnal szeretnénk értesülni, nem szeretnénk lemaradni semmi fontosról. Ugranak fel ugyan olyan címek is, amikről feltételezzük, hogy a mögöttük lévő írás minket kevésbé érdekel, ezért nem kattintunk rá. De lényegében egy véges számú hírforrás fogja alakítani tehát nemcsak a tájékozottságunkat, hanem a szakmai véleményünket és a világról alkotott véleményünket is!

Az intelligens híraggregátoroknál némileg más a helyzet, hiszen elénk kerülhet olyan webhely is, ahol esetleg korábban még egyáltalán nem jártunk, de alkalomadtán éppen ott lelünk valamilyen igencsak értékes információra.

Ennek a posztnak a szerzője nem ritkán be szokta dobni, hogy a civilizáció motorjának egyik kulcseleme volt maga az egyet-nem-értés. Viszont most egy szingularitással kell szembenéznünk, lévén, hogy a mindket érintő információ egyre nagyobb arányban kerül a webre, ami önmagában első olvasásra nettó közhely. Ha néhány évtizeddel ezelőtt ment be valaki a munkahelyére, véletlenül belehallhatott két hajléktalan beszélgetésébe, miközben reggelit vett az utcai büfében, esetleg szóba elegyedett a villamoson valami kapcsán teljesen idegen emberekkel, amik apróságoknak tűnnek ugyan, valójában ez tette lehetővé, hogy megkerülhetetlen és spontán módon olyan információkhoz jusson, olyan gondolkodásmóddal találkozzon, amitől ma szinte biztos, hogy elesne.

Manapság, hacsak valaki nem hivatásszerűen foglalkozik külöböző emberekkel napi rendszerességgel, szinte az összes információ a net felől jut el hozzá. Emellett sokkal nagyobb arányban olyan személyekkel érintkezik bármilyen módon, akik hozzá hasonló elveket vallanak, tudáshalmazzal rendelkeznek. Egy-egy közösségbe tartozó emberek még jobban fognak hasonlítani egymásra, mint korábban bármikor, aminek a következményei sokkal messzebbre mutatnak, mint elsőre tűnik. Mivel technológiai szingularitásról van szó, a jövőbeli hatásáról semmit sem tudunk, leszámítva azt, hogy a jelenség alól senki sem vonhatja ki magát.

A különböző csoportosulások közti információáramlás korábban sem volt kimondottan jellemző, a szociológusok által szegregációnak nevezett jelenséget már alaposan darabokra szedte a hálózattudomány.

Nem nehéz belátnunk, hogy egy módosabb elitgimnázium diákja korábban is sokkal kisebb valószínűséggel került bármiféle kapcsolatba egy szegényebb sorból származó, gyengébb középiskolába járó tanulóval, ami megteremtette volna a lehetőségét annak, hogy az elitgimnázium tanulója megismerje a másik gondolkodásmódját, megismerjen egy, számára addig nem látható világot. Azután ennek megfelelően alakuljon a szociális érzékenysége, közben pedig a merőben eltérő kultúrális és intellektuális környezetben élő másik fél impulzusokat kapjon azzal kapcsolatban, hogy hogyan alakítják az életüket azok, akik később magasabb társadalmi státuszra számíthatnak, és mindenre, ami ezzel jár.

Az ilyen, izolált szigetek közti információs átszivárgást nevezik a hálózat-szakik perkolációs pontoknak is.

Ahogy a net használatával mindenkinek az egyéni buborékja és az őt környezető ismerősei buborékja is egyre rigidebb lesz, érthető, hogy drámaian csökken az információ átszivárgásának még az elvi lehetősége is, a témát egyébként már egy korábbi posztban érintettük.

A korábbi posztban is szóba került talán, hogy látszólag paradox módon minden lehetőségünk meglenne ahhoz a net korában, hogy alaposan tanulmányozzuk egy-egy, kimondottan gazdagok vagy mélyszegénységben élők jellemzőit szinte mindenre kiterjedően, kapcsolatba léphessünk velük, stb. Világos, hogy életszerűtlen, hogy szóba elegyedjünk valamilyen webkettes felületen csak úgy az ország túloldalán lévő, sokkal kevésbé iskolázott felhasználóval. Ahogy annak az esélye is nagyban csökkent, hogy akár egy másik kontinensen élő milliárdossal lépjünk kapcsolatba spontán módon.

Az egyének és közösségek különbözősége volt a civilizáció hajtómotorja. Most is az. Ideértve a tudományos diskurzusokat, egy szervezeten belüli vitákat és persze a legkülönbözőbb okra visszavezethető háborús összecsapásokat.

Az egyének és a közösségek eltérőek voltak ugyan egymástól, viszont közel sem olyan mértékben, mint most! Az ezzel járó jövőbeli hatásokra, azok határsaira pedig senki sem lehet felkészülve. Ami tudott, hogy a társadalmi rendszerek stabilitását nagyban veszélyezteti, ha az ideológiai, politikai, intellektuális, értékrendbeli, stb. eltérések egy bizonyos szintűnél nagyobbá válnak.

Nem véletlenül az egyik legkomolyabb kihívás az exobiológusok és a döntéshozók számára kidolgozni arra egy forgatókönyvet, hogy hogyan kellene eljárni olyan esetben, ha a Földre tévedne valamilyen korábban nem ismert intelligens életforma az univerzumból – jelentsen bármit is az, hogy “intelligens”, na meg “civilizáció”. Mert semmilyen tárgyilagos kiindulópont nem lenne azzal kapcsolatban, hogy hogyan kellene viselkedni ilyen helyzetben.

exobiologia.png

Mindenki, akinek van valamiféle képe a buborékeffektusról, egyvalamiben biztosnak kellene lennie: hogy nem húzhatja ki magát a hatás alól. Másrészt érdemes úgy összeválogatni az érdeklődésének megfelelő, napi rendszerességgel használt forrásokat, hogy azok minden szempontot nézve minél kevésbé legyenek egyoldalúak, ugyanakkor minimalizálni szeretnénk az információs zajt.

Feedolvasóból annyi van, hogy azzal aztán tényleg BIX-et lehetne rekeszteni. Ahogy az más területen is megfigyelhető, itt sem feltétlenül a legelterjedett a legjobb. Hogy melyikre esik a választásunk, nem kis mértékben függ az áttekinthető UI/UX-től, függetlenül attól, hogy asztali gépes, tabletre vagy mobilra szánt változatról van szó.

feedly_legjobb_feed_olvaso

A gondolkodó paranoiája….

Nem kell különösebben elmerülnünk az összeesküvés-elméletekbe, de az intelligens híraggregátorok esetén sosem lehetünk benne biztosak, hogy azok kisebb vagy nagyobb mértékben valamilyen módon nincsenek-e manipulálva, valóban függetlenek-e. Közel sem triviális megállapítani, hogy egy-egy híraggregátor szolgáltatás mögött milyen üzleti, esetleg politikai érdekek rejtőzhetnek.

Vagy éppen a Google! Már megint. Alaposan beleásva magunkat a web történetébe arra juthatunk,  hogy a Google pusztán hirdetésközvetítő cég, mert még akkor is ezt találjuk a láncolat a különböző ingyenesen használható szolgáltatásaik végén, amikor végképp nem számítanánk rá. A web giantek társadalmi felelősségével kapcsolatban számtalan ostoba és kevésbé ostoba vélemény jelent meg, amik közül kettőt emelnénk ki. Nem is olyan rég történt, hogy a normális ember által aligha olvasott Daily Stormer lapot a Twitter, a Facebook, a Cloudflare, a GoDaddy és az összes hosztingszolgáltató után a Google is kirúgta az indexből való teljes eltávolítással. Ha pedig valaki a revenge porn kifejezésre keres rá, nem bosszúpornó oldalakat kap találatként, az teljesen biztos.

Egy pillanatig se felejtsük el, hogy mindezt a véleményszabadság mintaállamában, az USA-ban lépték meg, anélkül, hogy erre törvényileg kötelezték volna a céget! Nagyon nehéz kérdés, hogy a kőkeményen törvénybe ütköző, akár uszító tartalmak ellen fel kell-e lépniük a tech cégeknek, ha pedig igen, akkor hogyan. Többek közt azért, mert a szólásszabadság lényege, hogy bármikor visszakereshető legyen, hogy kik mennyire idióta, igazságtalan, beteg, kártékony tartalmat terítettek a neten, aztán ennek megfelelően lehessen őket megítélnie a többségi társadalomnak.

Azt, hogy a különböző dehumanizáló tartalmak vagy a bosszúpornó ellen bölcs dolog-e fellépniük a legnagyobb keresőmotoroknak, e cikk írójában már a Debreceni Egyetem katedráján is felvetődött. Az előző indokláson túl azért, mert paradox módon ezzel hosszú távon több kárt tehetnek, mint amennyivel biztonságosabb hellyé teszik a netet, jelensen a biztonság bármit is.

A hallgatók nagyon gyorsan megértették, hogy a kétezres évek derekán megjelent szórakoztató, másrészről gyűlöletbizniszben utazó oldalaknak, ahol kidobott exek küldtek be és tettek közzé képeket a volt párjukról – hogy is mondjuk – a legkülönbözőbb testnedvektől átitatott képeknek egyfajta népnevelő hatása is volt. Nyilván nem szándékoltan. Ha a 14 éves Pistike azt látta, hogy a 21 éves Móricka nővére hagyta magát lefotózni egy száll semmiben, Pistike, ha volt egy kis esze, egy életre megtanulta, hogy őt soha, senki ne fotózza le olyan helyzetben, amilyen helyzetben nem szeretné a neten viszontlátni önmagát, hogy aztán rajta röhögjön az egész falu heteken keresztül.

Csak sejtéseink lehetnek azzal kapcsolatban, hogy a magyar törvények által végülis üldözendő tartalmak miatt miért nem léptek fel sosem különösebben. Ami viszont biztos, hogy ezek az oldalak, még ha gyomorforgatóak is voltak, de mindenképpen népnevelő szerepet töltöttek be, a netezők kevésbé buta része megtanulta, hogy nem az a kérdés, hogy egy fotó, amit valaki készített, kikerül-e a netre, hanem az, hogy hogyan, mikor, miért, kitől. Egyszóval a néhány évvel fiatalabb generáció elővigyázatosabb, ha a magánszférája védelméről van szó, ami nem a technika, nem is a jog eszközei miatt alakult így, hanem mert az internet alaptermészete erre szocializálta őket.

Arról viszont szó sincs, hogy bármelyik webes óriás is pusztán jófejségből küzdene az elfogadhatatlannak tartott tartalmak ellen. Ha a Facebookon, amire 13 éves kort betöltve bárki regisztrálhat, mindenféle, a dark webről előhúzott állatkínzásos és kivégzős tartalmak jelennének meg és maradnának fenn, a Facebookot nem az érdekelné, hogy mindez egy 13 éves gyerek fejlődésére veszélyt jelent, az már sokkal jobban, ha a szülők emiatt eltiltanák a gyereket a szolgáltatás használatától, aminek következményeként a hirdetők máshova mennének hirdetni, ezzel sokmilliárd dolláros veszteséget okozva a cégnek.

A Google-nél teljesen hasonló a helyzet: a hirdetők nem hirdetnének olyan helyen, aminek a keresőfelületén keresztül olyan tartalmak jelennek meg, amik a legfinomabban fogalmazva a nyugalom megzavarására alkalmasak. A Google tehát odacsap, nem is kicsit és alighanem csak a jéghegy csúcsát látjuk ennek.

Ezek fényében kérdéses, hogy a Google és a Facebook karitatívnak kikiáltott lépései mennyire tekinthetők őszintén karitatívnak.

Az viszont nagyon valószínűtlen, hogy a Google hírolvasó szolgáltatása teljesen mentes legyen a részrehajlástól, ami persze gyakorlatilag bizonyíthatalan. Ha egy mobilok iránt intenzíven érdeklődő felhasználóról van szó, aligha történik közvetlenül olyan, hogy azokat a cikkeket, amik az Androidot szidják, háttérbe szorítsa a hírolvasó. Nem. Ennél sokkal kifinomultabb módszerek viszont már valószínűsíthetők, amik lényege, hogy amit a felhasználó lát, a Google brandjét erősítsék.

Általánosságban tényleg nem lehet nagyon mit mondani azon túl, hogy ha kicsit ki szeretnénk látni a saját buborékunkból, időnként keressünk fel olyan forrásokat is, amik alapvetően olyan tartalmakat terítenek, amivel akár egyáltalán nem értünk egyet, de így legalább lehetőségünk nyílik rá, hogy például a legvadabb ideológiák milyen belső logika szerint szerveződnek. Azt pedig főleg érdemes elkerülni, hogy mindig csak ugyanazokat a szolgáltatásokat használjuk. Könnyen lehet, hogy egy adott felületen egy átvett, lebutított cikk hivatkozik olyan forrásra, amire átkattintva számtalan hasznos információt találhatunk.

Szó sincs róla, hogy kiszolgáltatottak lennénk a dezinformációval vagy manipulációval szemben. A cikk jórészt holisztikusan közelítette meg a web és a civilizáció kapcsolatát, azonban ne felejtsük el, hogy mennyi online is elsajátítható tudás és eszköz áll rendelkezésre ahhoz, ha ki szeretnénk szúrni, kutatni szeretnénk a dezinformációt vagy utánanéznénk egy-egy kétes szolgáltatás működésének. A teljesség igénye nélkül:

  • a fejlesztés terén – a kódolási stílus ugyan kisebb mértékben, de hasonlóan eléggé egyedi, mint amikor valaki természetes nyelven fogalmaz meg valamit – valaki minél több forráskódot látott, belekóstol a nyelvtechnológiába is, annál nagyobb eséllyel szúrja ki, ha két oldal üzemeltetője közt kapcsolat van
  • a legtágabb értelembe vett e-commerce lehet szakszerű és etikus egyszerre, szintén nem megtanulhatatlan
  • az üzemeltetés terén – a DNS és a historikus DNS aranybánya, nem véletlenül. Senkinek nem adnánk tippeket, de annyit elárulunk, hogy valaki hiába használ whois masking-et egy webhely domainjénél, és dugja a teljes webhelyet az első pillanattól Cloudflare mögé, számtalan esetben tisztán technikai úton akkor is azonosítható marad.

Azaz: tanulni érdemes! Az online tanulás lehetősége pedig mindenki számára adott. A blog történetében először közvetlenül linkeljük a NetAcademia tanfolyamkeresőjét, ami számos érintett területet lefed.

kép: triarchypress.net