Buborékeffektus: hogyan írjuk és olvassuk a webet? És hogyan kellene? 

Ez a cikk technikai és filozófiai oldalról is feszegeti a buborékeffektusnak hívott jelenséget. Leegyszerűsítve: mindenki azt olvas a neten, amivel már korábban is egyetértett, mert a gépi ajánlócuccok, legyen az egy kereső, híraggregátor, vagy egy social site, “kedveskedni” akarnak nekünk. Vajon tényleg baj-e, hogy a neten szinte sohasem futunk bele olyan tartalmakba, amik a saját világképünkkel összeegyeztethetelenek? Nos, lássuk!

netacademia_tanfolyamkereso.png

A web olvasására általános recept nincs. Viszont az ideális eszközök és források ismérvei eléggé világosak: valóban friss cikkek címeit dobják elénk, lehetőleg olyan független forrásokból, amik lényegében a hitelességükből és alaposságukból élnek, ugyanakkor figyelnek a tartalmaik előállításánál a közérthetőségre is.

Alighanem nagyon sokan nem tudják, de a világ két, jóideje legpatinásabb tudományos folyóirata, a Science és a Nature szerkesztőbizottságai több esetben Nobel-díjas kutatók cikkeit akár többször is visszadobják a cikk formába hozásához, mielőtt kiadnák. Másrészt mindkettőnél van egy olyan feltétel, amire alighanem ritkán gondolnánk. Igaz, a Nature és a Science több cikke olyan, ami nem, vagy csak nagyon nehezen érthető azon olvasók számára, akik nem kimondottan az adott szakterületen mozognak, viszont mindkettőnél az alapítása óta kőbe vésett elvárás, hogy a cikknek olyannak kell lennie, ami a tudományos közösség érdeklődésére számot tart, függetlenül attól, hogy milyen tudomány művelője.

Ennek megfelelően pattant már vissza olyan cikk is, ami aztán egy olyan munkásság része volt, amiért Nobel-díjat ítéltek oda, de a cikk túlspecializált volt, nem felelt meg az előbbi feltételnek.

A felvezető olyan módon kapcsolódik ide, hogy sajátos módon azok az online lapok élték túl vígan a dotcom-lufi kidurranását, na meg konkrétabb, sokkal komolyabb behatásokat, és maradtak a legmeghatározóbb hírforrások, amik ha nem is koppintják a Nature és a Science mintáját, nem tudományos lapok, viszont alapelveikben nagy mértékben hasonlítanak azokhoz: az olvasóközönség érdeklődésének fenntartása fontos cél.

Természetesen hacsak valaki nem végtelen sok idővel rendelkezik, vagy unalmában böngészik a neten, nem nézegethető végig az összes meghatározó portál összes rovatának összes cikkje a leaddel, erre találták ki a feedolvasókat.

Amint egy oldalon megjelenik egy új cikk, annak elkészül egy feedolvasó által olvasható kivonata, ami a legegyszerűbb esetben csak a cikk címe és URL-je, esetleg emellett a lead, ami lehet a cikk első néhány mondata. Emellett annak sincs akadálya, hogy a cikk írója egyfajta excrept-et írjon, ami esetleg nem is szerepel a szövegben, kimondottan a feedolvasónak szánt néhány szavas kivonat, ami a cikk tartalmát minél jobban leírja.

Világos, hogy a jól eltalált címadás és az első néhány mondat mekkora jelentősséggel bír, hiszen az olvasó a mai információs kavalkádban ez alapján dönt egyáltalán arról, hogy kattint-e vagy sem, akár egy hírportál webes felületén jelenik meg, akár a feedolvasóban. Sokáig többen, közülük néhányan statisztikai alapon, megint mások egyszerűen empirikus alapon azon az elven voltak, hogy a cím nem lehet hosszabb 6 szónál, megint mások erre alaposan rácáfoltak, míg a komolyabb írásoknál nem ritkák az ennél sokkal hosszabb címek sem.

A tartalomfogyasztó, aki akár kimondottan hivatásos tartalomgyáros egy szerkesztőségben, akár olyan tartalomfogyasztó, aki egy-egy szakterület híreivel kapcsolatban szeretne előbb képbe kerülni, mint a többiek, akár hagyományos újságolvasó, bizonyos értelemben egyre jobban elkényelmesedett az évek során, amiben semmi meglepő nincs, elvégre tartalommal tele a padlás, unikális tartalomból már jóval kevesebb van. Az újonnan megjelent, kimondatlan igények kielégítésére több technikai eszköz is keletkezett, amiket ha hirtelen kötelező lenne nagy, ámde nem feltétlenül markánsan különböző csoportokba lehet sorolni, a következők lennének:

  • buta hírolvasók – a feedolvasó mintájára előre összegereblyézi a híreket, de nem különösebben veszi figyelembe a tényleges tartalomfogyasztási igényeket
  • curated content – a felhasználó beállíthatja, hogy milyen Twitteres, Google Plus-os, LinkedIN-es influencerek, vagy éppen az adott szolgáltatás editor’s pick-jéből választott források kerüljenek elé
  • gépi tanulással támogatott, intelligens hírolvasók vagy híraggregátorok – a kategória nagy öregje, a Flipboard és klónjai, ami a regisztrációt követően feldob számos cikket, amiről feltételezi, hogy érdekelhet mindket, majd minden mozzanatunkat figyeli és meglepően rövid gépi tanulást követően már csak kimondottan minket érdeklő cikkeket fog ajánlani. Mondani sem kell, hogy minden ilyen megoldás több mint addiktív lehet, de más hatásai is vannak, aminek a tárgyalására kicsit később térünk vissza. Flipboard-klónból pedig ugyancsak van bőven.

A gépi tanuláson keresztül ajánlgató szolgáltatások persze annál precízebbek, minél több adattal etetik őket, azaz ők maguk minél gyorsabban indexelik az újonnan megjelent cikkeket a web minden tájáról, valamint minél több felhasználó használja őket, minél több ízléséből tudnak tanulni.

A korábban hagyományos formájában sok-sok év után kinyiffantott, majd más formában ismét megjelentetett Google Readert  kezdetben azzal támadták a legnagyobb lapkiadók, hogy a Google az üzleti érdekeiket sértik azon keresztül, hogy a Google saját felületén jeleníti meg azokat, ilyen módon tartalomszolgáltatóként jelenik meg. Nem telt bele sok idő, amikor már azért lobbiztak a legnagyobb lapok, hogy kerülhessenek fel a Google Reader/NEWS által ajánlgatott részbe valamilyen módon.

A Google Readert hiába használták napi rendszerességgel és szerették felhasználók tízmilliói, a cég a szolgáltatást a hagyományos formában ki is végezte, igaz, utána újraindította más formában. A Google által kinyírt szolgáltatások sorába tökéletesen beleillik: nem tudtak olyan mennyiségű, több köztes lépésben hirdetéstargetálásra használható információt kinyerni a felhasználók olvasási szokásaiból, ami alapján gazdaságos lett volna életben tartani a szolgáltatást, holott többek szerint ehhez önmagában csak Gmail-ből, Google Analytics-ből, Chrome-ból és a keresőből származó információk automatizált kinyerése is elegendő lenne a Google több száz szolgáltatása közül.

A Google mint sok más területen, itt is komolyan kockáztatja a hasonló szolgáltatást kínáló vetélytársainak talpon maradását. A vetélytársaknak tehát valami olyat kell villantaniuk a felhasználóik felé, amit a Google hasonló szolgáltatása éppen nem tud vagy valahogy eltérő módon tudja.

Láttunk már példát a legkorszerűbb machine learning technikákra építő szolgáltatásokra, amik nem is világos, hogy miért buktak el. Többen napi rendszerességgel használták a Prismatic-ot amibe valósággal öntötték az adatokat, a befektetők a pénzt, a legpatinásabb oldalak az egekbe magasztalták, mégsem tudott megmaradni a piacon.

Ha valaki életében először használna internetet, és mondanunk kellene valamit azzal kapcsolatban, hogy melyik oldalt nézze meg életében először, a Flipboard mellett alighanem a RightRelevance lenne az.

Némileg más logika mentén ugyan, de a Flipboardhoz hasonlóan a felhasználó ízlésére, tartalomfogyasztási szokásaira épít, másrészt meg lehet jelölni olyan influencereket, akiknek a tartalmaira biztosan kíváncsiak vagyunk.

Megjegyzendő, hogy a világ a tartalomszolgáltatás piacán globális színtéren sem igazságos: a Business Insider, a Mashable és sok-sok más news outlet szinte mást sem csinál, csak tőlük patinásabb lapoktól csen át híreket, amiket aztán hülyeségig egyszerűsít, rövidít, ennek megfelelően sokkal nagyobb olvasói bázishoz jut el, persze összehasonlíthatatlanul nagyobb árbevétellel és összehasonlíthatatlanul kisebb hozzáadott értékkel. Az egyediség, az érték és az eladhatóság gyakorlatilag sosincs egymással összhangban.

Jól ismert sajátosság, hogy a tartalomfogyasztási szokások nem nagyon változnak. A nagyon sok ok közül kiemelendő, hogy az olvasó nyilván azokat a forrásokat fogja preferálni, amik egybehangzanak a véleményével, mi több, megerősítik egy témával kapcsolatos hitében, ilyen módon az önképében is. Természetesen nem csak politikai tartalmakról van szó. Ez az egyszerűsített magyarázata annak is, hogy a legelborultabb konteók, mint amilyen a lapos Föld hívők  vagy éppen az oltásellenesség miért tartja magát olyan stabilan.

Azaz javarészt olyat olvasunk és nézünk, amivel általában egyetértünk, ez viszont bizonyos értelemben buborékba, méghozzá minden korábbinál áttörhetetlenebbnek tűnő intellektuális buborékba zár minket, és persze az újonnan megszerzett információk befolyásolják a vélekedésünket nemcsak egy adott terület kapcsán, hanem olyan területeken is, amire nem is gondolnánk. (A jelenséget egyébként először a netes kereséskor észlelték és kezdték kutatni.)

Példaként egy igen szűk szakterület magasszintű képviselői közt sincs egyetértés abban, hogy Edward Snowden inkább hős vagy inkább hazaáruló. De a jelenség megfigyelhető olyan területeken is, amik úgymond sokkal kisebb mértékben hitkérdések, hanem akár tisztán szakmai kérdésnek tűnnek, ahol látszólag nincs helye egymásnak szögesen ellentmondó véleményeknek. Ha valaki rendszeresen arról olvas, hogy a Java-s technológiák jobbak összességében, mint a C#-on alapulók, sokkal inkább fog hajlani arra a véleményre, hogy a Java alkalmasabb valaminek a megvalósítására, amikor valójában nem.

Az elmúlt néhány évben totálisan feje tetejére állította a biotechnológiát és a molekuláris biológia egészét a CRISPR/Cas9 technika, amivel lényegében ugyanúgy génmanipuláció végezhető, mint számos más módszerrel, viszont a korábbiakhoz képest sokkal pontosabban, gyorsabban és olcsóbban. Olyannyira, hogy a világ biztonságáért felelős csúcsszervek korábban  és nemrég ismét összeültek a lehetséges kockázatok elemzésére, amit a piac is megérzett, de ahhoz sem kellett sok idő, hogy megszülessenek az első gyerekek, akiknek a génállományába még embrionális korukba nyúltak bele, így megelőzve egy súlyos megbetegedést.

Ez utóbbi azért sajátos, mert az emberi génállományba való beavatkozás a világ minden országában nagyon súlyos bűncselekménynek számít, hacsak nem gyógyászati célú. Gyógyászati cél ide vagy oda, korábban kivételszámban fordultak elő az olyan esetek, amikor ivarsejtek, egy születendő vagy már felnőtt beteg testi sejtjeinek génállományát próbálták megváltoztatni, és sikerrel is jártak.

A CRIPSR-technika olcsósága és egyszerűsége miatt felmérhetetlen lehetőségek nyíltak meg, ennek megfelelően logikus lenne arra gondolni, hogy erre tér át mindenki, ehhez képest viszonylag lassan kezdték-kezdik alkalmazni a gyakorlatban, különösen az alapkutatásban. Ez pedig aligha vezethető vissza arra, hogy a biológusok inkább használják az általuk már megszokott, jól bejáratott módszereket. Ugyan minden racionális érv amellett szól, hogy a kőbalta helyett a kalapács az alkalmasabb, a megszokások mégis lassan változnak.

Egy lehetséges magyarázatunk az, hogy tengernyi mennyiségű cikk jelent meg azzal kapcsolatban, hogy az új módszer mekkora kockázatokat rejthet, ha azt konkrétan terroristák kezdik el használni. Ha pedig egy-egy biológus jókora dózisú cikket olvasott a témában, ettől aligha tud teljesen elvonatkoztatni, még ha racionálisan úgy is gondolja, hogy igen.

Akár egy intelligens híraggregátort használunk, akár egy buta, de user friendly hírolvasót, szükségszerűen buborékba zárjuk magunkat. A feedolvasónál eléggé világos a helyzet: kézzel válogatjuk be azoknak a lapoknak a rovatait, aminek az újonnan megjelenő cikkeiről azonnal szeretnénk értesülni, nem szeretnénk lemaradni semmi fontosról. Ugranak fel ugyan olyan címek is, amikről feltételezzük, hogy a mögöttük lévő írás minket kevésbé érdekel, ezért nem kattintunk rá. De lényegében egy véges számú hírforrás fogja alakítani tehát nemcsak a tájékozottságunkat, hanem a szakmai véleményünket és a világról alkotott véleményünket is!

Az intelligens híraggregátoroknál némileg más a helyzet, hiszen elénk kerülhet olyan webhely is, ahol esetleg korábban még egyáltalán nem jártunk, de alkalomadtán éppen ott lelünk valamilyen igencsak értékes információra.

Ennek a posztnak a szerzője nem ritkán be szokta dobni, hogy a civilizáció motorjának egyik kulcseleme volt maga az egyet-nem-értés. Viszont most egy szingularitással kell szembenéznünk, lévén, hogy a mindket érintő információ egyre nagyobb arányban kerül a webre, ami önmagában első olvasásra nettó közhely. Ha néhány évtizeddel ezelőtt ment be valaki a munkahelyére, véletlenül belehallhatott két hajléktalan beszélgetésébe, miközben reggelit vett az utcai büfében, esetleg szóba elegyedett a villamoson valami kapcsán teljesen idegen emberekkel, amik apróságoknak tűnnek ugyan, valójában ez tette lehetővé, hogy megkerülhetetlen és spontán módon olyan információkhoz jusson, olyan gondolkodásmóddal találkozzon, amitől ma szinte biztos, hogy elesne.

Manapság, hacsak valaki nem hivatásszerűen foglalkozik külöböző emberekkel napi rendszerességgel, szinte az összes információ a net felől jut el hozzá. Emellett sokkal nagyobb arányban olyan személyekkel érintkezik bármilyen módon, akik hozzá hasonló elveket vallanak, tudáshalmazzal rendelkeznek. Egy-egy közösségbe tartozó emberek még jobban fognak hasonlítani egymásra, mint korábban bármikor, aminek a következményei sokkal messzebbre mutatnak, mint elsőre tűnik. Mivel technológiai szingularitásról van szó, a jövőbeli hatásáról semmit sem tudunk, leszámítva azt, hogy a jelenség alól senki sem vonhatja ki magát.

A különböző csoportosulások közti információáramlás korábban sem volt kimondottan jellemző, a szociológusok által szegregációnak nevezett jelenséget már alaposan darabokra szedte a hálózattudomány.

Nem nehéz belátnunk, hogy egy módosabb elitgimnázium diákja korábban is sokkal kisebb valószínűséggel került bármiféle kapcsolatba egy szegényebb sorból származó, gyengébb középiskolába járó tanulóval, ami megteremtette volna a lehetőségét annak, hogy az elitgimnázium tanulója megismerje a másik gondolkodásmódját, megismerjen egy, számára addig nem látható világot. Azután ennek megfelelően alakuljon a szociális érzékenysége, közben pedig a merőben eltérő kultúrális és intellektuális környezetben élő másik fél impulzusokat kapjon azzal kapcsolatban, hogy hogyan alakítják az életüket azok, akik később magasabb társadalmi státuszra számíthatnak, és mindenre, ami ezzel jár.

Az ilyen, izolált szigetek közti információs átszivárgást nevezik a hálózat-szakik perkolációs pontoknak is.

Ahogy a net használatával mindenkinek az egyéni buborékja és az őt környezető ismerősei buborékja is egyre rigidebb lesz, érthető, hogy drámaian csökken az információ átszivárgásának még az elvi lehetősége is, a témát egyébként már egy korábbi posztban érintettük.

A korábbi posztban is szóba került talán, hogy látszólag paradox módon minden lehetőségünk meglenne ahhoz a net korában, hogy alaposan tanulmányozzuk egy-egy, kimondottan gazdagok vagy mélyszegénységben élők jellemzőit szinte mindenre kiterjedően, kapcsolatba léphessünk velük, stb. Világos, hogy életszerűtlen, hogy szóba elegyedjünk valamilyen webkettes felületen csak úgy az ország túloldalán lévő, sokkal kevésbé iskolázott felhasználóval. Ahogy annak az esélye is nagyban csökkent, hogy akár egy másik kontinensen élő milliárdossal lépjünk kapcsolatba spontán módon.

Az egyének és közösségek különbözősége volt a civilizáció hajtómotorja. Most is az. Ideértve a tudományos diskurzusokat, egy szervezeten belüli vitákat és persze a legkülönbözőbb okra visszavezethető háborús összecsapásokat.

Az egyének és a közösségek eltérőek voltak ugyan egymástól, viszont közel sem olyan mértékben, mint most! Az ezzel járó jövőbeli hatásokra, azok határsaira pedig senki sem lehet felkészülve. Ami tudott, hogy a társadalmi rendszerek stabilitását nagyban veszélyezteti, ha az ideológiai, politikai, intellektuális, értékrendbeli, stb. eltérések egy bizonyos szintűnél nagyobbá válnak.

Nem véletlenül az egyik legkomolyabb kihívás az exobiológusok és a döntéshozók számára kidolgozni arra egy forgatókönyvet, hogy hogyan kellene eljárni olyan esetben, ha a Földre tévedne valamilyen korábban nem ismert intelligens életforma az univerzumból – jelentsen bármit is az, hogy “intelligens”, na meg “civilizáció”. Mert semmilyen tárgyilagos kiindulópont nem lenne azzal kapcsolatban, hogy hogyan kellene viselkedni ilyen helyzetben.

exobiologia.png

Mindenki, akinek van valamiféle képe a buborékeffektusról, egyvalamiben biztosnak kellene lennie: hogy nem húzhatja ki magát a hatás alól. Másrészt érdemes úgy összeválogatni az érdeklődésének megfelelő, napi rendszerességgel használt forrásokat, hogy azok minden szempontot nézve minél kevésbé legyenek egyoldalúak, ugyanakkor minimalizálni szeretnénk az információs zajt.

Feedolvasóból annyi van, hogy azzal aztán tényleg BIX-et lehetne rekeszteni. Ahogy az más területen is megfigyelhető, itt sem feltétlenül a legelterjedett a legjobb. Hogy melyikre esik a választásunk, nem kis mértékben függ az áttekinthető UI/UX-től, függetlenül attól, hogy asztali gépes, tabletre vagy mobilra szánt változatról van szó.

feedly_legjobb_feed_olvaso

A gondolkodó paranoiája….

Nem kell különösebben elmerülnünk az összeesküvés-elméletekbe, de az intelligens híraggregátorok esetén sosem lehetünk benne biztosak, hogy azok kisebb vagy nagyobb mértékben valamilyen módon nincsenek-e manipulálva, valóban függetlenek-e. Közel sem triviális megállapítani, hogy egy-egy híraggregátor szolgáltatás mögött milyen üzleti, esetleg politikai érdekek rejtőzhetnek.

Vagy éppen a Google! Már megint. Alaposan beleásva magunkat a web történetébe arra juthatunk,  hogy a Google pusztán hirdetésközvetítő cég, mert még akkor is ezt találjuk a láncolat a különböző ingyenesen használható szolgáltatásaik végén, amikor végképp nem számítanánk rá. A web giantek társadalmi felelősségével kapcsolatban számtalan ostoba és kevésbé ostoba vélemény jelent meg, amik közül kettőt emelnénk ki. Nem is olyan rég történt, hogy a normális ember által aligha olvasott Daily Stormer lapot a Twitter, a Facebook, a Cloudflare, a GoDaddy és az összes hosztingszolgáltató után a Google is kirúgta az indexből való teljes eltávolítással. Ha pedig valaki a revenge porn kifejezésre keres rá, nem bosszúpornó oldalakat kap találatként, az teljesen biztos.

Egy pillanatig se felejtsük el, hogy mindezt a véleményszabadság mintaállamában, az USA-ban lépték meg, anélkül, hogy erre törvényileg kötelezték volna a céget! Nagyon nehéz kérdés, hogy a kőkeményen törvénybe ütköző, akár uszító tartalmak ellen fel kell-e lépniük a tech cégeknek, ha pedig igen, akkor hogyan. Többek közt azért, mert a szólásszabadság lényege, hogy bármikor visszakereshető legyen, hogy kik mennyire idióta, igazságtalan, beteg, kártékony tartalmat terítettek a neten, aztán ennek megfelelően lehessen őket megítélnie a többségi társadalomnak.

Azt, hogy a különböző dehumanizáló tartalmak vagy a bosszúpornó ellen bölcs dolog-e fellépniük a legnagyobb keresőmotoroknak, e cikk írójában már a Debreceni Egyetem katedráján is felvetődött. Az előző indokláson túl azért, mert paradox módon ezzel hosszú távon több kárt tehetnek, mint amennyivel biztonságosabb hellyé teszik a netet, jelensen a biztonság bármit is.

A hallgatók nagyon gyorsan megértették, hogy a kétezres évek derekán megjelent szórakoztató, másrészről gyűlöletbizniszben utazó oldalaknak, ahol kidobott exek küldtek be és tettek közzé képeket a volt párjukról – hogy is mondjuk – a legkülönbözőbb testnedvektől átitatott képeknek egyfajta népnevelő hatása is volt. Nyilván nem szándékoltan. Ha a 14 éves Pistike azt látta, hogy a 21 éves Móricka nővére hagyta magát lefotózni egy száll semmiben, Pistike, ha volt egy kis esze, egy életre megtanulta, hogy őt soha, senki ne fotózza le olyan helyzetben, amilyen helyzetben nem szeretné a neten viszontlátni önmagát, hogy aztán rajta röhögjön az egész falu heteken keresztül.

Csak sejtéseink lehetnek azzal kapcsolatban, hogy a magyar törvények által végülis üldözendő tartalmak miatt miért nem léptek fel sosem különösebben. Ami viszont biztos, hogy ezek az oldalak, még ha gyomorforgatóak is voltak, de mindenképpen népnevelő szerepet töltöttek be, a netezők kevésbé buta része megtanulta, hogy nem az a kérdés, hogy egy fotó, amit valaki készített, kikerül-e a netre, hanem az, hogy hogyan, mikor, miért, kitől. Egyszóval a néhány évvel fiatalabb generáció elővigyázatosabb, ha a magánszférája védelméről van szó, ami nem a technika, nem is a jog eszközei miatt alakult így, hanem mert az internet alaptermészete erre szocializálta őket.

Arról viszont szó sincs, hogy bármelyik webes óriás is pusztán jófejségből küzdene az elfogadhatatlannak tartott tartalmak ellen. Ha a Facebookon, amire 13 éves kort betöltve bárki regisztrálhat, mindenféle, a dark webről előhúzott állatkínzásos és kivégzős tartalmak jelennének meg és maradnának fenn, a Facebookot nem az érdekelné, hogy mindez egy 13 éves gyerek fejlődésére veszélyt jelent, az már sokkal jobban, ha a szülők emiatt eltiltanák a gyereket a szolgáltatás használatától, aminek következményeként a hirdetők máshova mennének hirdetni, ezzel sokmilliárd dolláros veszteséget okozva a cégnek.

A Google-nél teljesen hasonló a helyzet: a hirdetők nem hirdetnének olyan helyen, aminek a keresőfelületén keresztül olyan tartalmak jelennek meg, amik a legfinomabban fogalmazva a nyugalom megzavarására alkalmasak. A Google tehát odacsap, nem is kicsit és alighanem csak a jéghegy csúcsát látjuk ennek.

Ezek fényében kérdéses, hogy a Google és a Facebook karitatívnak kikiáltott lépései mennyire tekinthetők őszintén karitatívnak.

Az viszont nagyon valószínűtlen, hogy a Google hírolvasó szolgáltatása teljesen mentes legyen a részrehajlástól, ami persze gyakorlatilag bizonyíthatalan. Ha egy mobilok iránt intenzíven érdeklődő felhasználóról van szó, aligha történik közvetlenül olyan, hogy azokat a cikkeket, amik az Androidot szidják, háttérbe szorítsa a hírolvasó. Nem. Ennél sokkal kifinomultabb módszerek viszont már valószínűsíthetők, amik lényege, hogy amit a felhasználó lát, a Google brandjét erősítsék.

Általánosságban tényleg nem lehet nagyon mit mondani azon túl, hogy ha kicsit ki szeretnénk látni a saját buborékunkból, időnként keressünk fel olyan forrásokat is, amik alapvetően olyan tartalmakat terítenek, amivel akár egyáltalán nem értünk egyet, de így legalább lehetőségünk nyílik rá, hogy például a legvadabb ideológiák milyen belső logika szerint szerveződnek. Azt pedig főleg érdemes elkerülni, hogy mindig csak ugyanazokat a szolgáltatásokat használjuk. Könnyen lehet, hogy egy adott felületen egy átvett, lebutított cikk hivatkozik olyan forrásra, amire átkattintva számtalan hasznos információt találhatunk.

Szó sincs róla, hogy kiszolgáltatottak lennénk a dezinformációval vagy manipulációval szemben. A cikk jórészt holisztikusan közelítette meg a web és a civilizáció kapcsolatát, azonban ne felejtsük el, hogy mennyi online is elsajátítható tudás és eszköz áll rendelkezésre ahhoz, ha ki szeretnénk szúrni, kutatni szeretnénk a dezinformációt vagy utánanéznénk egy-egy kétes szolgáltatás működésének. A teljesség igénye nélkül:

  • a fejlesztés terén – a kódolási stílus ugyan kisebb mértékben, de hasonlóan eléggé egyedi, mint amikor valaki természetes nyelven fogalmaz meg valamit – valaki minél több forráskódot látott, belekóstol a nyelvtechnológiába is, annál nagyobb eséllyel szúrja ki, ha két oldal üzemeltetője közt kapcsolat van
  • a legtágabb értelembe vett e-commerce lehet szakszerű és etikus egyszerre, szintén nem megtanulhatatlan
  • az üzemeltetés terén – a DNS és a historikus DNS aranybánya, nem véletlenül. Senkinek nem adnánk tippeket, de annyit elárulunk, hogy valaki hiába használ whois masking-et egy webhely domainjénél, és dugja a teljes webhelyet az első pillanattól Cloudflare mögé, számtalan esetben tisztán technikai úton akkor is azonosítható marad.

Azaz: tanulni érdemes! Az online tanulás lehetősége pedig mindenki számára adott. A blog történetében először közvetlenül linkeljük a NetAcademia tanfolyamkeresőjét, ami számos érintett területet lefed.

kép: triarchypress.net

Dizájnelem, amit a keresők is szeretni fognak: az email cím

A legkülönfélébb tematikájú blogokon találunk valamiféle kapcsolatfelvételi lehetőséget, nem egy esetben találkozhattunk már olyannal, hogy egy rendkívül nívós oldalon szinte esztétikátlan volt a szerzők email-címe, holott egy postafiók vagy éppen a leveleket csak adott irányba továbbító, saját domaines megoldás nem kerül többe néhány garasnál. A jelenséget ismét több oldalról járjuk körül.

Az összes hagyományos sajtóterméknél megszokhattuk, hogy fel van tüntetve valamilyen cím, ahova az olvasók írhatnak. Ami az online tartalmakat illeti, a kapcsolatfelvételi űrlap jó ötletnek tűnik, valójában viszont sokkal személytelenebb ahhoz képest, mint amikor a szerző email címe fel van tüntetve, így az olvasó közvetlenül tud írni neki.

Mi indokolja az egyébként a felhasználó számára kénylemetlen űrlapokat? Az ilyesmi jól használható az irkálók lelombozására, és a felesleges levéláradat csökkentésére, nem véletlenül használják ezt a módszert például az ügyfélszolgálatoknál, ahol fontos mérési szempont, hogy hány igény NEM érkezik be. Persze, tudjuk, a ticketing rendszer miatt van, de ez nem igaz, mert a hagyományos emaileket is el lehet látni ticketekkel.

A másik egy XX. századi félelem, hogy ha valahová kikerül az email címünk úgy, hogy a kukac karatert nem helyettesítjük a “kukac” szócskával, az egyenlő az adott email cím kinyírásával, mert fél órán belül teletömik a levelesládát a spamelők. Tizenöt évvel a spamfilterek megjelenése után ez ma már egyáltalán nem igaz. Pláne, ha valaki valamilyen felhős szolgáltatást használ, ahol a szolgáltató elemi érdeke, hogy ne hagyja floodolni az előfizetők levelesládáját, a spam-áradattól való félelemre nyugodtam mondhatjuk, hogy atavisztikus.

Az email ráadásul jobb a címzettnek is, mivel a feladó ugyan írhat olyan címről, amiből nem nagyon lehet következtetni a kilétére, aki viszont valamiféle normális visszajelzést szeretne kapni a szerzőtől, sanszosabb, hogy normális címről küld majd emailt. A netes műfajok folyamatosan folynak össze, amiről viszont hajlamosak vagyunk megfeledkezni, hogy ha egy portálnak, blognak, mikroblognak a fejléce, betűtípusa az arculat szerves részeit képzik, miért lenne ez alól kivétel éppen az email cím? Amivel kapcsolatban azért valljuk be, elvárható, hogy legyen valamilyen formája olyan esetben, amikor éppen egy ICT-vel foglalkozó blogról van szó.

Egy, a napokban publikálásra kerülő posztban részletesen kitérünk rá AI-megközelítésben, hogy mitől szeretnek valamit a keresőmotorok jobban vagy kevésbé.

Nem nehéz belátni, hogy a keresőmotor komolyabban fog venni egy olyan webhelyet, amihez normális emai lcímek tartoznak, aminek az oka minden részletében nyilván hétpecsétes titok, sejtéseink azért lehetnek. A kereső persze hogy komolyabban fog venni egy olyan oldalt, aminél nem fantázianévvel, ráadásul 2 perc alatt regisztrálható ingyenes cím van feltüntetve a szerzők elérhetőségénél, hanem azonos a domain, aminek nyilván van egy felelőse.

Vegyük észre, hogy mi is nyilván sokkal hitelesebbnek tartunk egy olyan oldalt, ahol a szerzők névvel vállalják az írásaikat (ami lehet ugyan fantázianév is), ha egy ahhoz passzoló email cím is van hozzá kapcsolva, éppen a szöges ellentéte annak, amit a hülye konteós oldalaknál láthatunk. Igen, igen. A keresőmotornak emberi értelemben érzései nincsenek ugyan, viszont bizonyos értelemben esztétikai érzéke, na meg mérlegelőképessége egy-egy oldal hitelességével kapcsolatban annál inkább, ahogy arról a következő posztban szó lesz.

Ami a technikai megvalósítást illeti, nagyon labilis megvalósítás, amikor az adott címre küldött leveleket csak forwardolja egy szolgáltatás a szerző postafiókja felé, egy-egy freemium vagy filléres levelezőrendszer beállítása viszont már teljesen elegendő lehet, ahogy arról a tervek szerint kurzus is lesz. A komolyabb szerkesztőségekben pedig a legpraktikusabb megoldás lehet, ha hosztolt vagy éppen cloudban futó Microsoft Exchange van beállítva, aminek az üzemeltetésével kapcsolatban éppen a Netacademia egyik tanfolyama minden részletet lefed.

Korábban az egyszerűsége és a letisztultsága miatt rendkívül népszerű volt a Google Apps, mai nevén G Suite, ami ingyenesen biztosított – pongyola megfogalmazásban – saját domaines Google Mail levelezést. 2011. április 26-adika alighanem eléggé kellemetlenül érintette azokat a Google Apps adminokat, akik 10-nél több felhasználóval használták a szolgáltatás. A Google először az 50 felhasználót leszorította 10-re, majd teljesen előfizetésessé tette a Google Apps-t.

all-in-one-saas
All in one Software as a Service

Néhány dolgot viszont nagyon fontos tudni a G Suite-ról. Egyrészt a korábbi regisztrációkat visszamenőlegesen nem tették fizetőssé, ezek az ún. legacy csomagok. Viszont abban az esetben, ha az admin volt olyan elővigyázatlan, hogy rákattintott a dashboardon vöröslő UPGRADE-re 30 napos kipróbálási lehetőséggel, supporttal, utána már nem volt semmilyen módon lehetősége visszatérni az ingyenes változathoz! Az pedig azért nagyon nem mindegy, hogy ingyenesen vagy 10 felhasználóval számolva évenkénti 600 dollárért használható ugyanaz, mivel egy-egy fiók havi díja 5 USD körül van, csak az entry level esetén.

Természetesen nemcsak a levelezés, hanem közel 100 Google-szolgáltatás használható saját domaines végződéssel.

g-suite-google-apps
Hivatalosan nincs legszigorúbb DLP, viszont audit igen

További, amit nagyon fontos tudni a legacy G Suite-ról, hogy nem csak egyetlen domain lehet alá bekötve, hanem szinte akármennyi, aztán vagy a governance szerint beállítható vagy a felhasználóra bízható, hogy melyik végződéssel használja a szolgáltatáscsomagot.

Ugyancsak fontos, hogy az elsődleges domain nem cserélhető ki úgymond, viszont egy-egy nevet évenként 10 USD-ért megújítani annyira nem fájdalmas. Márpedig ha az elsődleges domaint, amivel eredetileg regisztrálta az admin a Google Apps-t, nem újítják meg, igencsak izgalmas pillanatokat okozhat működés közben, másrészt nyilván regisztrálhatóvá válik más számára is, aki ráadásul ha tudja, hogy G Suite volt bekötve a domain alá, korlátozás nélkül viheti az egész házat, mivel a G Suite admin elfelejtett jelszava az elsődleges domainhez tartozó zóna módosításával is kérhető!

Kísérleti jelleggel mostantól ehhez a bloghoz is tartozik szabályos formátumú email cím, igaz, még csak egy, a bardoczi.akos@elemzes.netacademia.hu.

A freemiumok közül a Google Apps-t emeltük ki, mert a legelterjedtebb volt. Különös érdekessége még az immár közel 10 éves történetnek, hogy a Microsoft ugyancsak nyújtott ilyen szolgáltatást, azaz olyan volt, mintha teljesen ingyen adtak volna Office 365-öt – ami persze akkor még nem volt – tokkal-vonóval, mindennel. Mégsem tudta felvenni a versenyt a Google Apps-szel és persze ugyanúgy kivezették az ingyenes csomagokat.

Hogy most elérhető-e hasonló komplett freemium szolgáltatáscsomag? Természetesen, több is, amik közül nem lehet egyikre sem mondani, hogy jobb lenne a másiknál, egy-egy szolgáltatás vagy szempont alapján erősebb. De ez már egy másik elemzés története lesz.