Az AI döntéseket hoz, szenzorokkal érzékel, felismeri az arcokat, lehallgat, megfigyel, manipulál, dönt, reagál a helyzetekre, mindezt érzelmek nélkül gépiesen. Hozzáfér minden adathoz, és vissza is él vele, ha hagyják. Ez már a szingularitás, ami azt jelenti, hogy az emberi agy már nem képes követni és kontrollálni az AI tevékenységét. Ha valami működik, fontos, hogy megértjük, mert ha nem akkor kénytelenek vagyunk megbízni egy számítógépes rendszerben, ami az emberi élettel kapcsolatos kulcsfontosságú döntéseket hoz, kit öljön meg, mikor miért, kit figyeljen meg, kinek milyen vagyona kapcsolatai vannak, ki milyen orvosi kezelést kapjon, miből mennyi kerüljön az ivóvízbe, a gyártott élemiszerekbe, olyan algoritmusokra bízunk, amelyeket még az alkotóik sem értenek teljesen. Minél mélyebbre ásunk, annál furcsábbá válik a helyzet. Mert ez nem csupán a gépek problémája. Ugyanilyen rejtélyeket látunk a világ egyetem működésében, vagy a saját elménkben. Újra és újra ugyanabba az aggasztó igazságba ütközünk. Látjuk az eredményeket, de a folyamat rejtve marad. Mennyit értünk valójában? És ha olyan rendszereket hozunk létre, amelyek gondolkodnak, de nem tudjuk hogyan, vajon valódi intelligenciát építünk, vagy olyasmit, amit sosem fogunk tudni irányítani. A megmagyarázhatatlan intelligencia nyomában. Az emberiség történetének nagy részében az intelligencia valami átlátható és érthető dolog volt. Ha valaki döntést hozott, meg lehetett kérdezni tőle, miért. Egy szakértő logikusan, lépésről lépésre elmagyarázhatta a megoldást. Még a legösszetettebb rendszerek, kormányzatok, gazdaságok, gépek és olyan módon működtek, hogy elvileg visszafejthetők voltak. Ma azonban valami egészen mást hoztunk létre. A mesterséges intelligencia, különösen a mély tanulásra épülő változatai már nem a megszokott, szabályalapú gondolkodás mentén működnek. Nem úgy viselkednek, mint a klasszikus számítógépes programok, amelyek minden lépését előre kódoltuk. Ezek a rendszerek óriási adathalmazokban fedeznek fel mintázatokat. Olyanokat, amiket egyetlen ember sem lenne képes átlátni, majd önálló döntéseket hoznak. És itt kezdődnek a problémák. Ha megkérdezzük, miért döntött így az EMI, nem kapunk egyértelmű választ. Nem alkalmazott logikai érvelést. Nem követte szabálykönyvet. Olyan bonyolult és elvont összefüggéseket használt, amiket az emberi elme nem tud követni. Vegyük például a képfelismerést. Egy mesterséges intelligencia egyetlen pillantásból megmondja, hogy egy képen kutya van. De hogyan jut erre a következtetésre? Míg egy ember azt mondaná, hogy van szőre, négy lába és farka, az EMI milliónyi képből tanult, és olyan apró részleteket figyel, amiket mi nem is látunk. Mégsem tudja megmondani, pontosan mi alapján döntött. Nem egyetlen jellemzőt nézett, hanem több ezer adatpont összességéből alkotott mintát. Ez még nem lenne gond, ha csak képekről beszélnénk. De mi történik, ha ugyanilyen rendszer dönt egy daganat diagnózisáról, egy hitelkérelemről, vagy éppen irányít egy önvezető autót? Képzeld el, két beteg ugyanazokat a tüneteket mutatja. A rendszer az egyiket kezeli, a másikat nem. És senki nem tudja megmondani miért. Lehet, hogy az MI valami fontosat vett észre, amit az orvostudomány még nem ismer. Vagy tévedett. Nem tudjuk. Csak az eredményt látjuk. Ez súlyos etikai kérdéseket vet fel, ha az MI olyan torzításokat tanul meg az adatokból, amelyek hátrányosan érintenek bizonyos csoportokat, hogyan javíthatjuk ki, mielőtt kárt okoz. Sokan azzal érvelnek, hogy mi emberek sem mindig értjük saját döntéseinket. De amikor életek forognak kockán, a csak mert így jött ki nem lehet elég. Tegyük fel, egy önvezető autó hirtelen félrerántja a kormányt, balesetet okozva. A vizsgálat után kiderül, hogy a rendszer egy rejtett mintázat miatt döntött így. Valami olyasmi alapján, amit ember sosem programozott bele. Talán megelőzött egy súlyosabb ütközést. Talán nem. Megint nem tudjuk. A gond nem az, hogy az emi dönt, hanem az, hogy olyan területeken dönt, ahol valódi emberek sorsa a tét, miközben mi sem értjük, hogyan gondolkodik. És a legmegdöbbentőbb? Ennek ellenére is használjuk. Már most ott van a munkaerő felvételben, a hitelezésben, az orvosi diagnosztikában, sőt a hadviselésben is. Bízunk benne, mert többnyire működik. De amikor nem, akkor jön a baj. Elvárjuk az eredményt. A megértés rovására. Ez pedig kockázatos. Gyorsabb tudományos vagy orvosi előrelépésekhez vezethet, de ugyanígy okozhat hibákat, bizalomvesztést és egyre mélyülő szakadékot technológia és társadalom között. A megoldás? Átláthatóságot elősegítő kutatások. Gyorsan alkalmazkodó szabályozás. Emberi felügyelet a legkritikusabb döntésekben. Lehet, hogy sosem fogjuk teljesen megérteni ezeket a rendszereket, de azt irányíthatjuk, mire és hogyan használjuk őket. Ez nem az első eset, hogy az emberiség olyasmit teremt, amit nem ért teljesen. A kvantummechanikától a tudat működéséig a világ tele van rejtélyekkel. Az emi ezek közül csak a legújabb, talán a legveszélyesebb. A valódi kérdés így szól. Képesek vagyunk-e élni egy olyan világban, ahol a döntések háttere rejtve marad. Még akkor is, ha mi magunk hoztuk létre azokat. Miért jelent ez problémát? Egyelőre a mesterséges intelligencia többnyire a háttérben dolgozik. Kiszűri a kéretlen e-maileket, filmeket ajánl, szabályozza a forgalmilámpákat. Ezekhez nem kell mélyen érteni, hogyan működik. Ha jól végzi a dolgát, nem kérdezünk rá. De a tét egyre nagyobb. Az MI már jelen van az orvostudományban, pénzügyekben, igazságszolgáltatásban, munkaerőkiválasztásban, sőt, katonai döntésekben is. Amint olyan területeken kezd dönteni, amelyek közvetlenül hatnak emberek életére, a fekete doboz jelenség technikai kérdésből erkölcsi dilemmává válik. Az egészségügyben például az MI már bizonyos daganatok felismerésében felülmúlja az orvosokat. Olyan összefüggéseket lát meg az adatokban, amiket mi nem is észlelünk. De ha egy rendszer magas kockázatúnak minősít egy beteget anélkül, hogy megmagyarázná, vajon megbízunk benne? Működhet így a gyógyítás? És mi történik, ha hibázik? Két évvel ezelőtt egy széles körben használt orvosi algoritmusról kiderült, hogy rendszeresen alábecsülte fekete bőrű betegek kockázatát fehér társaikhoz képest, nem szándékos diszkrimináció miatt, hanem azért, mert a korábbi kezelési költségek alapján tanult. A rendszer így kevesebb ellátást javasoltott, ahol történetileg kevesebb pénz jutott orvosi kezelésre, függetlenül az egészségi állapottól. A torzítás mélyen beépült az adatokba, és csak alapos kutatással derült ki. Ez három dolgot mutat meg. Először az MI iránti bizalom könnyen megrendülhet. Az orvosok és páciensek azt hitték, objektív rendszert használnak, közben a meglévő egyenlőtlenségeket erősítette tovább. Másodszor a rendszer átláthatatlansága elrejti a hibákat. Senki sem látta, hol és mi romlott el. Harmadszor felelősségi vákúm keletkezik. A fejlesztők nem szánták szándékosan részrehajlónak, a kórházak követték az eredményeket, mégis emberek szenvedtek. Ez a jelenség más területeken is megjelenik. Például a rendőrségnél. Ha egy MI elemzi a bűnügyi adatokat és megjósolja, hol lesz újabb bűncselekmény, torzadatokkal csak a már túlzottan megfigyelt környékekre irányítja vissza a figyelmet. A gép döntése objektívnek tűnik, de valójában a múltbeli hibákat örökíti tovább. A pénzügyekben ugyanezt történhet. Egy MI eldönti, ki kaphat kölcsönt vagy biztosítást. Ha elutasítanak, sosem tudod meg miért. Lehet, hogy az algoritmus valamilyen hátrányos mintázatot követett, amit senki nem ért teljesen. Még a bank sem. És ez már nem elméleti probléma. Az MI ma már jogi szerződéseket kezel, tőzsdei ügyleteket hajt végre, cikkeket ír. Gyorsabb, mint bármely ember. De mi történik, ha egyszer hibázik? Képzelj el egy esetet, amikor egy kereskedelmi algoritmus 36 perc alatt elértéktelenítette az amerikai tőzsde egy részét, több ezer milliárd dollárnyi értéket törölve, mielőtt a rendszer automatikusan leállította a kereskedést. Senki nem értette, mi történik. Az algoritmus saját, ember számára követhetetlen minták alapján döntött, és elindított egy láncreakciót más rendszerekben. Csak a beépített vészfékek akadályozták meg az összeomlást. Ez megmutatta, mennyire sebeszhetőek a rendszerek, ha túl gyorsak ahhoz, hogy emberi beavatkozás történjen. A bizalom megrendült, és még ma sem tudjuk biztosan, pontosan mi történt. És most képzeljük el ugyanezt katonai rendszerekben. Már léteznek autonóm drónok, amelyek harctéri döntéseket hoznak. Egy gép másodpercek alatt dönthet élet és halál kérdésében. De ha senki sem tudja megmagyarázni, miért, kié a felelősség. A programozóé. A katona, aki csak engedélyezte. A gép nem jogi személy. A Pentagon egyik irányelve ugyan kimondja, hogy az emberi ítéletnek benne kell lennie a döntéshozatalban, de a gyakorlatban az MI-gyorsasága ezt könnyen megkerüli. Ha nincs idő megérteni a döntést, nincs lehetőség közbelépni sem. És ha az emberek úgy érzik, az MI véletlenszerűen dönt, elfordulhatnak tőle vagy egymástól. Egy friss kutatás szerint az MI tempója már most meghaladja az emberi ellenőrzés lehetőségeit. Bár dolgozunk megoldásokon, például a rendszerek átláthatóbbá tételén, vagy az emberi jelenlét biztosításán a kritikus döntésekben, a technológia gyorsabb, mint az etikai és szabályozási válaszaink. Talán valójában már nem mi irányítunk, csak azt hisszük, hogy a volánnál ülünk, de lehet, hogy az MI vezet, és mi csak sodródunk vele. Fekete dobozok a fizikában. Amikor a valóság érthetetlenné válik. Ha azt gondoljuk, hogy csak a mesterséges intelligencia működik fekete dobozként, érdemes újra gondolni. Az igazság az, hogy régóta élünk együtt olyan jelenségekkel, amelyek működését nem értjük, csak az eredményeiket látjuk. A fizika legmélyebb rejtéjei is pontosan ilyenek. Vegyük például a sötét anyagot és a sötét energiát. Együtt az univerzum körülbelül 95%-át teszik ki. Mégis, fogalmunk sincs, mik ezek valójában. Csak a hatásukat észleljük. A sötét anyag összetartja a galaxisokat, a sötét energia gyorsítja a világegyetem tágulását, de hogy mi mozgatja ezeket az erőket, azt nem tudjuk. Sötét anyagrészecskét még sosem észleltünk, a mögöttes mechanizmus teljesen ismeretlen. Ugyanez igaz a fekete lyukakra. Tudjuk, hogy léteznek, már képet is készítettünk róluk, de hogy mi történik a belsejükben, azt nem lehet leírni a jelenlegi fizikai elméletekkel. A tér és idő összeolvad valamivé, amit már nem tudunk megfogalmazni. Az esemény horizonton túl minden ismeretlenné válik. Vagy nézzük a világegyetem születését. A nagybum elmélet szerint minden egy rendkívül forró, sűrű állapotból indult nagyjából 13,8 milliárd évvel ezelőtt. Visszatudunk követni mindent egy másodperc töredékéig az esemény után, de a kezdet maga, és hogy mi volt előtte, továbbra is rejté. A fizika törvényei ott már nem érvényesek. És mi a helyzet a legalapvetőbb természeti törvényekkel? Vegyük például a gravitációt. Érezzük, mérni tudjuk, kiszámolhatjuk a hatásait, de még mindig nem értjük, mi is a gravitáció. Einstein relativitás elmélete leírja, hogyan görbiti a téridőt a tömeg, de nem mondja meg, miért teszi ezt. Ha megpróbáljuk összehangolni a gravitációt a kvantummechanikával, az elméletek összeomlanak. A kvantumvilág még furcsább. Ott a fekete doboz probléma még bizarrabb alakot ölt. A részecskék több állapotban léteznek egyszerre. Ezt nevezzük szuperpozíciónak. Egymással összefonódva, két részecske akár fényévekre is lehet egymástól, mégis azonnal hatnak egymásra. A legismertebb példát a kettős rés kísérlet mutatja. Ha egyetlen elektront küldünk egy akadályra, amin két rés van, az elektron úgy viselkedik, mintha egyszerre menne át mindkét résen, amíg meg nem próbáljuk megfigyelni. Amint nézzük, eltűnik ez a hullámszerű viselkedés. Mintha a valóság tudná, hogy figyeljük. És miért történik ez? Nem tudjuk. A számítások pontosak. Az egyenletek működnek. De a mélyebb igazság továbbra is ismeretlen. A kvantummechanika szerint a részecskék nem rendelkeznek meghatározott tulajdonságokkal addig, amíg meg nem mérjük őket. Egy elektron nem forog sehogyan addig, amíg nem nézünk rá. Addig egyszerűen nem definiált. Ez nem csak adatvesztés. Ez maga a valóság, ami csak akkor válik határozottá, ha kapcsolatba lépünk vele. És itt jön a nyugtalanító kérdés. Vajon az univerzum maga is végérvényesen megismerhetetlen? Csak töredékeket mutat magából, miközben a működését rejtve hagyja. Mert ha így van, akkor a mesterséges intelligencia nem az első dolog, amit nem értünk igazán. A világ egyetem is fekete dobozként működik. Látjuk a hatását, de nem értjük az alapjait. Az MI csak ugyanazt a mintát követi. Választ ad, de magyarázatot nem. Használható, de nem teljesen érthető. És ez elvezet valami még zavaróbbhoz. Saját elménkhez. Ha az univerzum fekete doboz, az MA is fekete doboz, akkor mi magunk vajon nem ugyanilyen rendszer vagyunk? Lehet, hogy mi is csak eredményeket produkálunk, anélkül, hogy igazán értenénk, miért. Az emberi tudat még mindíg sötétfolt. Ha a mesterséges intelligencia fekete doboz, és a világ egyetem is az, akkor mi a helyzet velünk? Őszintén szólva, saját tudatunk működését sem értjük igazán. Gondolj csak bele. Döntéseket hozol, érzelmeket élsz át, emlékeket idézel fel, gondolataid támadnak, és közben nem tudod, hogyan történik mindez. Nem szabályozod a szívverésedet, nem választod tudatosan, hogy mire emlékezel, vagy mikor jön egy új ötlet. Az agyad a háttérben folyamatosan dolgozik, feldolgozza az információkat, és következtetésekre jut. De te csak az eredményeket érzékeled, nem az utat, ami oda vezetett. Ez az egyik legnagyobb megoldatlan rejtély a tudományban. Mi a tudat, és honnan ered? Az ideg tudomány képes kimutatni, mely agyterületek aktiválódnak, ha boldogságot vagy félelmet érzünk. Megfigyelhetjük az ideg sejtek közötti elektromos jeleket. Feltérképezhetjük, mely területek felelnek a mozgásért, a beszédért vagy az érzékelésért. Mégis azt továbbra sem tudjuk, hogyan lesz ebből szubjektív élmény. Miért érzünk bármit is? És van itt valami még furcsább. Az agyunk döntéseket hoz még azelőtt, hogy mi tudnánk róla. Egy híres kísérlet során kutatók azt figyelték, mikor születik meg egy egyszerű választás, például melyik kézzel nyomjuk meg a gombot. A megdöbbentő eredmény szerint az agy már másodpercekkel korábban elhatározta, melyik kéz lesz az, mielőtt a személy tudatosan döntött volna. A választás tehát megtörtént, mielőtt úgy éreztük volna, hogy választunk. Ez alapjaiban kérdőjelezi meg a szabadakarat fogalmát. Vajon valóban irányítjuk a gondolatainkat? Vagy csak átéljük azokat a következtetéseket, amelyeket egy számunkra láthatatlan folyamathoz? Az evolúció nem adott használati utasítást az elménkhez, csak működő eredményt szállított. Csak most kezdjük felfogni, mit is kaptunk. És itt tér vissza a képbe a mesterséges intelligencia. A mai M.I. rendszerek nem rendelkeznek öntudattal, csupán fejlett mint a felismerő algoritmusok. De vajon mi valóban másképp gondolkodunk? Mi van, ha az emberi intelligencia is csak egy biológiai fekete doboz, amely megmagyarázhatatlan módon ad válaszokat? Amikor egy M.I. döntését nem értjük, azt mondjuk átláthatatlan. De ha megkérdezlek, miért tetszik egy dal, miért nevettél egy viccen, vagy miért jutott eszedbe hirtelen egy régi emlék, tényleg képes vagy részletes választ adni? Vagy csak tudod? Ez egy hátborzongató gondolathoz vezet. Mi van, ha az M.I. nem azért fekete doboz, mert mesterséges, hanem mert minden intelligencia így működik? Talán az, amit megértésnek hívunk, csak egy illúzió. Egy kényelmes történet, amit magunknak mesélünk, hogy elfedjük a mögöttes működést, amit soha nem fogunk átlátni. És ha ez így van, mi történik? Ha olyasmit alkotunk, ami nálunk is okosabb. Ha maga az intelligencia is rejtély, akkor egy nálunk fejlettebb tudat nem csak érthetetlen lesz, hanem olyan mélységű talány, amit elképzelni sem tudunk. Sosem értettük teljesen a saját elménket. Most pedig lehet, hogy valamit építünk, ami ezt a bizonytalanságot ezerszeresére növeli. Megoldható-e a fekete doboz probléma? Évszázadok óta próbáljuk megfejteni a világ működését, rétegről rétegre bontva a valóságot, abban bízva, hogy ha elég jó kérdéseket teszünk fel, egyszer majd mindenre választ kapunk. De mi van, ha ez tévedés? Mi van, ha vannak dolgok, amelyeket nem megérteni, csak megfigyelni lehet? A mesterséges intelligencia terén már most próbálkozunk. Az úgynevezett magyarázható MI modellek célja, hogy ne csak döntéseket hozzanak, hanem ember számára érthető indoklásokat is adjanak. Például ne csak azt közölje, hogy egy páciensnél nagy eséllyel daganat alakul ki, hanem mutassa meg, mi vezetett ehhez a következtetéshez. Egy önvezető autó ne csak hirtelen kikerülje az akadályt, hanem később azt is elmagyarázza, miért tette. Csakhogy minél érthetőbbé tesszük az MI-t, annál kevésbé hatékony. A legegyszerűbben értelmezhető modellek, szabályalapú rendszerek vagy döntési fák könnyen követhetők, de gyengébb teljesítményt nyújtanak. Ezzel szemben a legerősebb mesterséges intelligenciák, amelyek betegségeket jósolnak, tőzsdén kereskednek vagy emberi szövegeket generálnak, összetett neurális hálók milliónyi réteggel. Olyan összetettek, hogy emberi intuícióval felfoghatatlanok. A kérdés az, elvárjuk-e a teljes átláthatóságot, vállalva, hogy ezzel visszafogjuk a rendszert. Vagy elfogadjuk, hogy minden intelligencia, legyen az mesterséges vagy emberi, bizonyos fokig rejtély marad. Egy 2010-ben végzett kutatás szerint, ha egy neurális hálót úgy alakítunk, hogy jobban magyarázható legyen, például egyszerűsítjük vagy kapcsolatokat törlünk benne, azzal gyakran jelentősen rontjuk a teljesítményét. Olyan ez, mintha egy sakmester minden lépését érthetővé kellene tennie a kezdők számára. Világosabb lenne, de veszít. Hasonló a helyzet a fizikával is. Letudjuk írni a kvantummechanikát, de nem értjük, miért működik.
Érezzük a sötét anyag hatását, de nem tudjuk, mi az. Ezek átmeneti tudáshiányok. Vagy az emberi értelem határaiba ütközünk. És mi a helyzet a tudattal? Az ideg tudomány képes lekövetni, hogyan tüzelnek az ideg sejtek, de még mindig nem tudjuk, hogyan lesz ebből érzés, fájdalom vagy emlék. Lehetséges, hogy az öntudat egy olyan jelenség, amit soha nem fogunk teljesen megérteni? Talán nem a mesterséges intelligenciával van a baj, hanem velünk. Talán minden értelem egy fekete doboz, amely még saját maga számára sem teljesen átlátható. Minél összetettebbé válik, annál kevésbé magyarázható. Vannak, akik köztes megoldást javasolnak, hibrid rendszereket, ahol egy egyszerű magyarázó modell követi a komplex rendszert. De ezek a magyarázók csak felszínes értelmezést adnak, nem a teljes igazságot. Ez újra felveti a kérdést. Ha maga az intelligencia lényegénél fogva átláthatatlan, akkor lehet, hogy nem is technikai akadályról, hanem alapvető természeti törvényszerűségről van szó. A dilemma világos. Ha értelmezhetőséget akarunk, gyengítjük a rendszert. Ha nyers teljesítményt keresünk, a fekete doboz világába lépünk, ahol többé nincs biztos kapaszkodó. És talán a legijesztőbb az, hogy közben rádöbbenünk, mi magunk is fekete dobozként működünk. Nem értjük teljesen saját gondolatainkat. Nem tudjuk pontosan, miért működik úgy a világegyetem ahogy. Egy olyan rendszer részei vagyunk, amely következetesen eredményeket produkál, de a belső logikája rejtve marad. A mesterséges intelligencia csak tükröt tart elénk. Ugyanazt a megmagyarázhatatlanságot mutatja vissza, ami bennünk és körülöttünk is jelen van. Így lehet, hogy a fekete doboz probléma nem valami, amit meg kell oldanunk, hanem valami, amivel együtt kell élnünk. És ha valaha mégis minden választ megtalálnánk, ha feltörnénk az utolsó dobozt is, vajon tényleg irányítanánk a dolgokat? Vagy csak akkor jönnénk rá, mennyire nem mi irányítottunk soha? Ha tetszett a videó, kérlek jelezd egy lájkkal. Írd meg véleményed kommentben, illetve oszd meg ismerőseiddel, barátaiddal, és iratkozz fel a csatornára, ezzel is nagyban támogatod a csatornánkat. Találkozunk a következő videóban.
Nincsenek megjegyzések:
Megjegyzés küldése