Kilencedik fejezet
Válasz a kritikákra

 
„Az emberi elme ugyanúgy nem szereti a fura elképzeléseket, mint ahogyan a test sem szereti a különös fehérjéket, és a testhez hasonló energiával tiltakozik ellenük.”
(W. I. Beveridge)
 
„Ha egy (…) tudós valamiről azt állítja, hogy lehetséges, majdnem biztos, hogy igaza van, ám ha azt mondja, hogy lehetetlen, nagy valószínűséggel téved.”
(Arthur C. Clarke)

 

A kritikák köre

 

A The Age of Spiritual Machines (A spirituális gépek kora) című könyvemben már elkezdtem megvizsgálni azokat a gyorsuló tendenciákat, amelyeket nagyobb mélységükben derítek fel ebben a kötetben. A korábbi könyvemben írtak a legkülönfélébb véleményeket váltották ki, többek között végtelen párbeszédek születtek az írásban tárgyalt mélyreható, előttünk álló változásokkal kapcsolatban. (Például Bill Joy a Wiredben „Miért nincsen szüksége ránk a jövőnek?” címmel megjelent cikke inspirálta „ígéret kontra veszély” vita, amit az előző fejezetben tekintettem át.) Az elképzeléseimre érkező vélemények több szinten magyarázták, hogy az általam bemutatott változások miért nem történhetnek meg. Az alábbiakban azokat a legfontosabb kritikákat foglalom össze, amelyekre válaszolok ebben a fejezetben:

• A „Malthus-kritika”: Hiba az exponenciális trendeket kivetíteni a meghatározhatatlan jövőbe, hiszen ezek a trendek nyilvánvalóan úgyis kifogynak az erőforrásaikból, és exponenciális növekedésük nem folytatódhat. Továbbá nem lesz elég energiánk működtetni a megjósolt rendkívül sűrű jövőbeli számítástechnikai platformokat, és még ha sikerülne is, azok úgy felforrósodnának, akár a Nap. Az exponenciális tendenciák egyszer elérnek egy aszimptotát, ám a számítástechnikához és kommunikációhoz szükséges alapanyagok és energiaforrások az egy számítógépre jutó bitben számolva olyan aprók, hogy ezek a tendenciák folytatódnak addig a pontig, amikor a nem biológiai intelligencia már több trilliószor hatékonyabb lesz a biológiai formánál. A reverzibilis számítás több nagyságrenddel csökkentheti az energiafelhasználást és könnyítheti a hőelvezetést. A számítástechnikában a „hideg” számítógépekre váltás olyan nem biológiai platformokat fog létrehozni, amelyek hihetetlen mértékben meghaladják majd a biológiai intelligencia teljesítményét.
• A „szoftveres kritika”: Exponenciális eredményeket érünk el a hardver területén, de a szoftver elakadt a kátyúban. Bár a szoftverfejlesztés megkettőződési ideje hosszabb, mint a számítástechnikai hardveré, a szoftverek hatékonysága és komplexitása is hatványozódik. A keresőprogramoktól a játékokig a szoftveralkalmazások ma olyan mesterségesintelligencia-technológiát használnak, amelyről egy évtizede még csupán kutatási projektekben olvashattunk. A szoftverek általános komplexitása, hatékonysága és algoritmikus problémamegoldó képessége is jelentősen megnőtt. Továbbá hatékony munkahipotézisünk van arra, miként teremtsük újra az emberi intelligencia képességeit egy gépben: visszafejtéses tervezéssel megragadhatjuk az agy működési elveit, és alkalmazhatjuk őket az agyhoz hasonló képességű számítástechnikai platformokban. Az agy visszafejtésének minden aspektusa felgyorsul: úgy az agyletapogatás térbeli és időbeli felbontása, az agy összes működési szintjének ismerete, mint az idegsejtek és agyi területek realisztikus modellezése, illetve szimulálása.
• Az „analóg feldolgozás kritikája”: A digitális számítástechnika túl merev, mert a digitális bitek csak két állapotot ismernek. A biológiai intelligencia többnyire analóg módon működik, így finom fokozatokban is képes a számításra. Igaz, hogy az emberi agy digitálisan vezérelt analóg módszereket használ, de ilyen megoldásokat a gépeinkben is alkalmazhatunk. Azonkívül a digitális számítástechnika bármilyen kívánt pontossági szinten szimulálhatja az analóg műveleteket, míg ennek az ellenkezője nem igaz.
• Az „idegi feldolgozás komplexitásának kritikája”: Az idegsejtek közötti kapcsolatok információs folyamatai (axonok, dendritek, szinapszisok) sokkal komplexebbek, mint a neurális hálókban használt leegyszerűsített modellek.
Való igaz, azonban az agyi területek szimulációja során nem használunk ilyen leegyszerűsített modelleket. Létrehoztuk az idegsejtek és idegi kapcsolatok valósághű matematikai modelljeit és számítógépes szimulációit, amelyek megragadják a biológiai megfelelőjük nemlineáris és aprólékos folyamatait. Továbbá felfedeztük, hogy maguknak az információfeldolgozást végző agyi területeknek a komplexitása gyakorta kisebb, mint a bennük lévő idegsejtek felépítése. Ma már az emberi agy több tucat területének létezik hatékony modellje és szimulációja. Az emberi genom csak körülbelül harminc-százmillió byte-nyi tervinformációt tartalmaz, ha a redundanciát is számításba vesszük, így az agy tervadatai kezelhető szinten mozognak.
• A „mikrotubulusok és a kvantumszámítás kritikája”: Az idegsejtek mikrotubulusai alkalmasak kvantumszámításra, és ez a kvantumszámítás a tudat előfeltétele. Egy „személyiség” feltöltéséhez meg kellene ragadnunk a személyiség pontos kvantumállapotát. Nincsen bizonyíték, ami alátámasztaná ezeket az állításokat. Még ha igazak is volnának, semmi sem gátolja a kvantumszámítást a nem biológiai rendszerekben. Rendszeresen használunk kvantumhatásokat a félvezetőkben (például a tranzisztorok alagútdiódáiban), és a gépi alapú kvantumszámítás is fejlődik. A pontos kvantumállapot megragadásával kapcsolatban annyit mondhatok, én is egészen más kvantumállapotban vagyok, mint akkor, amikor elkezdtem leírni ezt a mondatot. Akkor tehát most már egy másik ember vagyok? Talán így igaz, ám ha valaki megragadta volna az állapotomat egy perccel ezelőtt, az adott információra alapuló feltöltés sikeresen átmenne a „Ray Kurzweil” Turing-teszten.
• A „Church–Turing-tézis kritikája”: Bizonyítható, hogy széles a köre azoknak a problémáknak, amelyeket egy Turing-gép nem képes megoldani. Az is bizonyítható, hogy a Turing-gépek képesek bármilyen lehetséges számítógépet emulálni (azaz létezik olyan Turing-gép, amely minden olyan feladatot meg tud oldani, amely számítógéppel megoldható). Következésképpen a számítógép által megoldható problémák száma korlátozott. Ám az emberek képesek megoldani ezeket, így hát a gépek soha nem tudják majd utánozni az emberi intelligenciát. Az emberek általában nem képesek a gépeknél jobban megoldani ezeket a „megoldhatatlan” problémákat. Az emberek bizonyos esetekben értelmesen találgatnak a megoldást illetően, de a gépek is képesek ugyanerre, és gyakran gyorsabban is teszik ezt.
• A „hibaszázalék kritikája”: A számítógéprendszerek komplexitásuk növekedésével együtt egyre riasztóbb mértékben követnek el katasztrofális hibákat. Thomas Ray azt írja, hogy „feszegetjük a hagyományos módszerekkel hatékonyan megtervezhető és megépíthető dolgok határait.” Egyre komplexebb rendszereket fejlesztünk ki a kritikusan célirányos feladatok elvégzésére, és a rendszerek hibaszázaléka nagyon alacsony. Ám a tökéletlenség minden komplex folyamat velejárója, és ez alól az emberi intelligencia sem kivétel.
• A „»kötöttség« kritikája”: Az energiaipar, a közlekedés és hasonló területek átható és komplex fenntartórendszerei (és ezek hatalmas beruházási igénye) gátolják az innovációt, így megakadályozzák a szingularitás technológiáinak megjósolt, gyors ütemű változását. Én kifejezetten az információs folyamatok exponenciális gyarapodásáról beszéltem a kapacitás és ár–teljesítmény-arány tekintetében. Már az információs technológia minden területén láttunk gyors paradigmaváltásokat, amelyeket egyetlen kötöttség jellegű jelenség sem gátolt meg (az internet és a telekommunikáció hatalmas infrastrukturális beruházásai ellenére). Még az energia- és közlekedési szektorok is forradalmi változásokat várhatnak a nanotechnológia-alapú újításoktól.
• Az „ontológiai kritika”: John Searle több változatban is bemutatja az általa kigondolt kínaiszoba-analógiát. Az egyikben egy ember egy szobában ül, és – számára érthetetlen – kínai nyelvű kérdésekre kell válaszolnia. Ehhez kap egy angol nyelven írt szabályrendszert, ezt követve adja meg a válaszokat. A férfi látszólag kompetens módon, kínai nyelven válaszolja meg a kérdéseket, „valójában azonban csupán mechanikusan követ egy programot. Tehát valójában nem beszéli a kínai nyelvet, és nem tudatosan teszi, amit tesz”. Searle szerint a szobában tartózkodó „ember” nem ért semmit, hiszen végeredményben „egyszerű számítógép”. Így hát nyilvánvalóan a számítógépek nem értik, amit cselekszenek, hiszen csupán szabályokat követnek. Searle kínai szobájának érvei eredendően tautologikusak, hiszen azt a végkövetkeztetést veszik premisszaként, hogy a számítógépek nem rendelkezhetnek valódi tudattal. Searle egyszerű analógiáinak filozófiai bűvészmutatványa részben lépték kérdése. Azt állítja, egyszerű rendszerről beszél, és meg akarja győzni az olvasót, hogy egy ilyen rendszer nem rendelkezhet valódi tudattal. Ám már maga a jellemzés félrevezető. Ahhoz, hogy a kínai szoba rendszere összeegyeztethető legyen Searle feltételezéseivel, legalábbis az emberi agyéval megegyező komplexitással kellene bírnia, és ekkor ennek megfelelően az emberi agyéval megegyező tudatossággal rendelkezne. Az analógiában szereplő ember a CPU-nak megfelelő elem volna, a rendszer egy kisebb egysége. Bár ez az ember talán nem lenne tisztában vele, a tudata szétszóródna a program egész mintájában és a több milliárd döntésben, amelyeket a program végrehajtásához meg kellene tennie. Csak gondoljunk bele: én értem az angol nyelvet, de az idegsejtjeim nem. Nyelvismeretem így idegátviteli erősségek, szinaptikus rések és idegsejtközi kapcsolatok kiterjedt mintáiban jelenik meg.
• A „gazdag–szegény választóvonal kritikája”: Valószínű, hogy ezeken a technológiai vívmányokon keresztül a gazdagok olyan lehetőségekhez jutnak majd, amelyekhez az emberiség nagy részének nem lesz hozzáférése. Ez persze nem újdonság, de szeretném felhívni a figyelmet arra, hogy az ár–teljesítmény-arány folyamatos exponenciális javulásából következően ezek a technológiák igen gyorsan olcsón elérhetővé, majdhogynem ingyenessé válnak.
• Az „állami szabályozás valószínűségének kritikája”: Az állami szabályozás le fogja lassítani és meg fogja állítani a gyorsuló technológiai fejlődést. Bár a törvények gátló ereje fontos kérdés, eddig kevéssé mérhető hatást gyakorolt az e könyvben tárgyalt tendenciákra. Hacsak nem alakul ki egy világméretű totalitariánus állam, a technikai fejlődés gazdasági és egyéb vonulatai folyamatos fejlődést és növekedést mutatnak majd. Még az őssejtkutatáshoz hasonló ellentmondásos kérdések is a patakban csillogó kövekhez lesznek hasonlóak: a fejlődés folyamának fénye bevilágítja őket.
• A „teista kritika”: William A. Dembski szerint „a Ray Kurzweilhez hasonló materialisták… az anyag mozgását és változásait elegendő magyarázatnak tartják az emberi tudat megismeréséhez”. „De a materializmus kiszámítható, míg a valóság nem az. A kiszámíthatóság a materializmus legfőbb erénye… és az üresség a legfőbb bűne.” Az anyag és energia komplex rendszerei nem kiszámíthatóak, hiszen nagyszámú, előre nem megjósolható kvantumeseményen alapulnak. Még ha elfogadjuk is a kvantummechanika „rejtett változós” értelmezését (amely szerint a kvantumesemények csak látszólag kiszámíthatatlanok, és valójában mérőműszerekkel kimutathatatlan rejtett változók működtetik őket), a komplex rendszerek viselkedése még mindig gyakorlatilag kiszámíthatatlan volna. És minden tendencia azt mutatja, hogy egyértelműen a biológiai másukkal egyenlő komplexitású nem biológiai rendszerek felé haladunk.
Ezek a jövőbeli rendszerek nem lesznek „üresebbek”, mint maguk az emberek, és sok esetben az emberi intelligencia visszafejtésén alapulnak majd. Nem kell az anyag- és energiaminták képességein túl keresgélnünk ahhoz, hogy megmagyarázzuk az emberi intelligencia képességeit.
• A „holista kritika”: Michael Dentont idézve, az élőlények „önszerveződők, (…) önreferenciálisak, (…) önmásolók, (…) reciprokálisak, (…) önformálók és (…) holisztikusak”. Ezeket az organikus formákat csak biológiai folyamatok hozhatják létre, és ezek a formák „adják a lét változatlan, (…) beláthatatlan és mélyreható valóságát”.{720} Való igaz, hogy a biológiai felépítés mélyen gyökerező alapelvek kifejeződése és terméke, ám a gépek képesek alkalmazni – már alkalmazzák is – ugyanezeket az alapelveket, és nincsen semmi, ami meggátolná a nem biológiai rendszereket abban, hogy megragadják a biológiai világ emergens tulajdonságait.

Már számtalan olyan vitában és párbeszédben vettem részt különböző fórumokon, amelyek megválaszolták ezeket a felvetéseket. Ennek a könyvnek az egyik célja kimerítő választ adni az általam megismert legfontosabb kritikákra. A megvalósíthatóság és elkerülhetetlenség fenti kritikáira adott replikáim már a könyv számos fejezetében megjelentek, de ebben a fejezetben részletesen reagálok az érdekesebb kifogásokra.

 

A hitetlenségből fakadó kritikák

 

Az általam leírt jövő talán legőszintébb kritikája egyfajta kételkedés abban, hogy ezek a mélyreható változások valóban megtörténhetnek. A vegyész Richard Smalley például nem hisz abban, hogy a nanobotok képesek lennének küldetéseket teljesíteni az emberi véráramban, és „ostobaságnak” titulálja az elképzelést. Ám a tudósokat etikai érzékük eleve óvatosságra inti a jelenlegi munka távlati lehetőségeit illetően, és ez az egyébként érthető és ésszerű óvatosság sajnálatos módon gyakran arra készteti a kutatókat, hogy elhatárolják magukat a tudomány és technológia távoli jövőre gyakorolt hatásának tanulmányozásától. Az egyre gyorsuló paradigmaváltás tükrében ez a megrögződött pesszimizmus nem segíti a társadalom ügyét, különösen, amikor azt akarjuk felmérni, mire lesz képes a tudomány az előttünk álló évtizedekben. Gondoljunk csak bele, milyen hihetetlen lenne a jelenkor technológiája az egy évszázaddal ezelőtt élt emberek szemében!

Egy ehhez kapcsolódó kritika arra az elképzelésre épít, hogy nehéz megjósolni a jövőt; erre bőségesen találunk bizonyítékot, elég megnéznünk a régebbi korok jövőkutatóinak megannyi hamis jóslatát. Valóban rendkívül nehéz, vagy egyenesen lehetetlen megjósolni, a jövőben melyik cég vagy termék válik sikeressé. Ugyanebbe a nehézségbe ütközünk, amikor arra keresünk választ, vajon melyik műszaki megoldás vagy szabvány marad fenn az idők során. (Például vajon hogyan vészelik át az elkövetkező évszázadot a WiMAX, CDMA és 3G drót nélküli kommunikációs protokollok?) Mindazonáltal, mint azt már bőségesen kifejtettem ebben a könyvben, az információs technológiák általános hatékonyságát tekintve meglehetősen precíz és megjósolható exponenciális tendenciákat találunk (például az ár–teljesítmény-arány, a sávszélesség, és egyéb kapacitásmérő jelzőszámok formájában). Példának okáért, a számítástechnika ár–teljesítmény-arányának elegáns exponenciális íve már csaknem egy évszázada tart. Ha csak azt nézzük, hogy az egy bit kiszámításához vagy továbbításához szükséges anyag és energia minimális mennyisége köztudottan milyen elenyésző mértékű jelenleg, magabiztos jóslatokat tehetünk az információs technológiai trendek folytatódásáról, legalább a következő évszázadra vonatkozóan. Továbbá megbízható számításokat végezhetünk az említett technológiák jövőbeli kapacitásaival kapcsolatban.

Gondoljunk csak bele, hogy egy mozgó gázmolekula pályáját kiszámítani lényegében lehetetlen, de a(z egymással kaotikus kölcsönhatásban lévő molekulákból álló) teljes gázmennyiség bizonyos tulajdonságait megbízhatóan megjósolhatjuk a termodinamika törvényeinek segítségével! Ennek megfelelően nem lehetetlen megbízható jóslatokat készíteni egy adott projekt vagy vállalat eredményeire vonatkozóan sem, és a (sok kaotikus tevékenységből álló) általános információs technológia kapacitása is megbízhatóan előre jelezhető a gyorsuló megtérülések törvényén keresztül.

Úgy látom, ez a hitetlenkedés szítja a gépeknek – a nem biológiai rendszereknek – az emberekhez való hasonlításakor felcsapó tiltakozás dühét is. Az emberi gondolkodás története során rendszerint elutasításra kerültek azok a gondolatok, amelyek látszólag megingatták a fajunk különlegességébe vetett hitünket. Sokan ellenálltak Kopernikusz felfedezésének, miszerint a Föld nem a világegyetem középpontja, ahogyan Darwinnak sem hitték el, hogy alig vagyunk fejlettebbek a többi emberszabásúnál. Az az elképzelés, hogy a gépek elérhetik, vagy akár meg is haladhatják az emberi intelligencia szintjét, most látszólag ismét megkérdőjelezi az ember létjogosultságát.

Véleményem szerint van valami alapvetően különleges az emberi lényekben. Mi voltunk az első faj a Földön, amelyben egyszerre jelent meg a kognitív funkció és a hatékony, a többivel szembefordítható végtagnyúlvány (a hüvelykujj), és ezért képesek voltunk létrehozni egy olyan technológiát, amely egyszer majd a saját horizontunkat is kitágítja. A Földön rajtunk kívül egyetlen faj sem volt képes erre. (Pontosabban mondva, mi vagyunk az egyetlen fennmaradó faj ebben az ökológiai fülkében; más, hasonló fajok – mint például a Neander-völgyiek – nem maradtak fenn.) Továbbá, mint azt a hatodik fejezetben is kifejtettem, eddig még egyetlen más civilizációt sem találtunk az univerzumban.

 

A Malthus-kritika

 

Az exponenciális tendenciák nem tartanak örökké. A végső korlátokba ütköző exponenciális trendek klasszikus példája a „nyulak Ausztráliában” metaforája. Egy befogadó élőhelyre érkező faj egyedszáma egészen addig exponenciális ütemben növekszik, amíg növekedése el nem éri a környezet fenntartóképességének korlátait. Ennek a határnak a megközelítése összességében még a populációt is csökkentheti – például az emberek, felfigyelvén egy terjedő kártevőre, ki akarják azt irtani. Egy másik gyakori példa a mikrobáé, amely exponenciálisan terjed egy állati testben, amíg el nem ér egy határt: a gazdatest eltartóképességének felső határát, egy immunrendszeri válaszreakciót, vagy a gazdatest halálát. Az emberi népességszám is határ felé közeledik. A fejlettebb nemzetekben élő családok elsajátították a születésszabályozási módszereket, és relatíve magas igényszintet alakítottak ki a gyermekeik ellátása tekintetében. Ennek eredményeképpen a népességgyarapodás a fejlett világban többé-kevésbé stagnál. Eközben a legtöbb fejlődő országban még mindig a társadalmi biztonság ígéretét látják a nagy családban, abban bízva, hogy legalább egy gyermek életben marad és támogatni fogja idős korú szüleit. Ám mivel a gyorsuló megtérülések törvénye egyre szélesebb kör számára biztosítja a gazdasági hasznot, a népesség egyetemes növekedése lassul.

Akkor tehát az információs technológiák terén tapasztalt exponenciális tendenciák is hasonló akadályba ütköznek majd?

A válasz igen, de még azelőtt megtörténnek a könyvben tárgyalt mélyreható változások. Mint azt a harmadik fejezetben megírtam, az egy bit kiszámításához vagy továbbításához szükséges anyag és energia mennyisége elenyésző mértékű.

A reverzív logikai kapuk használatával csak annyi energiabevitelre van szükségünk, ami az eredmények továbbadásához és a hibajavításhoz szükséges. Egyébként az adott számítás közben felszabaduló hőt visszaforgatva rögtön a következő számítás elvégzésére fordíthatjuk.

Az ötödik fejezetben már szóltam róla, hogy a nanotechnológia-alapú műszaki megoldásoknak – gyakorlatilag minden területen, a számítástechnikában, a kommunikációban, a gyártásban és közlekedésben – jóval kevesebb energiára lesz szükségük, mint manapság.

A nanotechnológia a megújuló energiaforrások, például a napfény felhasználásában is segédkezni fog. 2030-ban napenergiával elérhetjük harmincbillió wattos összenergia-szükségleti tervünket, amennyiben felfogjuk a Földet érő napenergia mindössze 0,03 százalékát (három tízezred részét). Ez hihetetlenül olcsó, pehelysúlyú és hatékony nanomegoldásokkal ellátott napelemekkel fog sikerülni, amelyek nanoüzemanyag-celláikban tárolják és osztják szét a felfogott energiát.

 

A gyakorlatilag korlátlan korlátok. Mint arról már a harmadik fejezetben is esett szó, egy optimálisan szervezett, 1 kg súlyú, reverzibilis logikai kapukat alkalmazó számítógép körülbelül 1025 atomból áll, és körülbelül 1027 bit tárolására képes. Csak a részecskék közötti elektromágneses kölcsönhatásokat tekintve legalább 1015 számításra használható állapotváltozás történik bit per másodpercenként, ami a legideálisabb 1 kilogrammos „hideg” számítógépben körülbelül 1042 számítást eredményez másodpercenként. Ez körülbelül 1016-szorosa a ma élő összes biológiai agy képességének. Ha végső számítógépünk netán fel is melegedhet, akkor még tovább növelhetjük a kapacitását legalább 108-szorosára. És ugyebár számítástechnikai erőforrásainkat nyilvánvalóan nem fogjuk egy kilogramm anyagra korlátozni, hanem végül a Földön és a Naprendszerben található anyag és energia jelentős részét bevetjük ebből a célból, aztán terjeszkedünk.

Az egyes paradigmák egyszer egy korláthoz érnek. Úgy ítéljük, hogy a Moore-törvény (a lapos nyomtatott áramkörön található tranzisztorok méretének csökkenésére vonatkozó szabály) az elkövetkező két évtizedben eléri a határát. A Moore-törvény leáldozásának időpontja egyre távolodik. Először 2002-re jósolták, de az Intel szerint 2022-ig nem fog megtörténni.

Azonban ahogyan azt a második fejezetben is leírtam, amikor egy bizonyos számítástechnikai paradigma eléri a felső határát, a kutatási kedv és a nyomás megnövekedik és létrehoz egy új paradigmát. Ez a számítástechnika százéves, exponenciális fejlődésében már négyszer megtörtént (az elektromágneses számológépektől a reléalapú számítógépekig, aztán onnan a vákuumcsövekig, majd az önálló tranzisztoroktól a nyomtatott áramkörökig). Magunk mögött hagytunk már megannyi mérföldkövet a számítástechnika következő (hatodik) paradigmájáig, a háromdimenziós, önszervező, molekuláris szintű áramkörökig vezető úton. Így egy adott paradigma hamarosan bekövetkező veszte nem parancsol megálljt a fejlődésnek.

Az információs technológiának vannak határai, de ezek hihetetlenül tágak. A Naprendszerünkben található anyag és energia teljes számítókapacitását legalább 1070 cps-re becsültem (lásd a hatodik fejezetet). Mivel az univerzumban legalább 1020 csillagot találunk, körülbelül 1090 cps-sel számolhatunk, ami igazolja Seth Lloyd független elemzését. Tehát igen, vannak korlátok, csak éppen nem nagyon korlátoznak minket.

 

A szoftveres kritika

 

A hatékony mesterséges intelligencia és így a szingularitás megvalósíthatóságának gyakori kritikája a kvantitatív és kvalitatív tendenciák szétválasztásánál kezdődik. Ez az érvelés lényegében tudomásul veszi, hogy bizonyos nyers képességek, mint a memóriakapacitás, a processzorsebesség és a kommunikációs sávszélességek valóban exponenciálisan bővülnek, de ugyanakkor azt állítja, hogy a szoftver (azaz a módszerek és algoritmusok) lemarad ezektől.

Ez a hardver kontra szoftver kifogás, amely jelentős súlyt képvisel a vitában. A virtuális valóság úttörője, Jaron Lanier például az én álláspontomat és más úgynevezett „totalista kibernetikusokét” úgy jellemzi, mint amely szerint majd valami előre nem látható úton, „deus ex machina” módjára találjuk fel a megfelelő szoftvereket.{721} Ez az érvelés természetesen nem veszi figyelembe az intelligenciaszoftver előállításának általam leírt specifikus és részletes forgatókönyvét. Az emberi agy visszafejtése, amely sokkal távolabbra mutat annál, mint azt Lanier és más kritikusok gondolnák, olyan mértékben kibővíti a mesterséges intelligencia eszközkészletét, hogy az emberi intelligencia rejtett önszervező módszereit is magába olvasztja majd. Hamarosan visszatérek a tárgyhoz, de először lássunk néhány további alapvető tévhitet a szoftverek állítólagos fejleszthetetlenségével kapcsolatban!

 

A szoftverek stabilitása. Lanier a szoftvereket lényegében „lomháknak” és „törékenyeknek” nevezi, és hosszasan taglalja a használatuk során tapasztalt nehézségeket. Szerinte „szinte lehetetlen a számítógépeket rávenni, hogy megbízható, de megváltoztatható módon végezzenek el meghatározott feladatokat anélkül, hogy lefagynának, vagy biztonságtechnikai kérdések merülnének fel”.{722} Nem célom védeni minden szoftvert, de az egyszerűen nem igaz, hogy a komplex szoftverek alapvetően gyengék vagy katasztrofális összeomlásra hajlamosak volnának. A komplex célorientált szoftverek nagyon kis százalékban omlanak össze, ha egyáltalán összeomlanak: például egyre több kifinomult program vezérel repülőgépeket, figyel intenzív osztályon fekvő betegeket, irányít intelligens fegyvereket, vezérel automatikus mintafelismerésre támaszkodva több milliárd dolláros befektetéseket kockázatitőke-alapokban, és lát el további funkciókat.{723} Nem tudok olyan repülőgép-szerencsétlenségről, amelyet egy automatizált leszállószoftver hibája okozott volna, ám ugyanez nem mondható el az emberi megbízhatóságról.

 

A szoftverek válaszideje. Lanier arról panaszkodik, hogy „a számítógépek felhasználói interfészei lassabban reagálnak a felhasználói eseményekre, például billentyűnyomásra, mint tizenöt évvel ezelőtt… Hol romolhatott el a dolog?”{724} Kíváncsi vagyok, Lanier milyen sikerrel tudna használni ma egy régi számítógépet. Még ha a beállítási nehézségeket félretesszük is (ami egészen más lapra tartozik), Lanier nem veszi figyelembe, mennyire lomhák, ormótlanok és korlátozottak voltak ezek a rendszerek. Próbáljunk csak meg a mai színvonalnak megfelelő munkát végezni valamelyik húszéves személyiszámítógép-szoftverrel! Egyszerűen nem igaz, hogy a régi szoftverek bármilyen kvalitatív vagy kvantitatív értelemben jobbak lettek volna.

Bár mindig lehetséges silány minőségben megtervezett programokat találni, a késleltetett válaszidőket általában az új tulajdonságok és új funkciók eredményezik. Ha befagyasztanánk egy adott szoftver funkcióinak fejlesztését és az újabbak hozzáadását, a számítási sebesség és a memória exponenciális növekedése miatt hamarosan megszűnne a szoftverek késleltetett válaszideje. Ám a piac mindörökké bővülő kapacitást követel. Húsz évvel ezelőtt nem voltak keresőprogramok vagy más módok, amelyekkel a világhálóhoz lehetett kapcsolódni (valójában világháló sem volt), csak primitív nyelvi vagy multimédiás eszközök, formattálás, és így tovább. Így hát a funkcionalitást mindig a megvalósíthatóság határozza meg.

A több évre vagy évtizedre visszatekintő nosztalgikus szoftverkép olyan, mint a legtöbb ember idilli elképzelése arról, milyen volt, amikor a gépek még nem „telepedtek rá” le a mindennapjainkra. Talán tényleg szabadabban élhetett az ember, de hosszú élettartamra nem lehetett számítani, és gyakran érték a szegénység, a betegségek, valamint a szerencsétlenségek okozta fájdalmak.

 

A szoftverek ár–teljesítmény-aránya. Az ár és teljesítmény tekintetében az összehasonlítások drámai változásokat mutatnak. Vegyük a 145. oldalon található, beszédfelismerő szoftvereket tartalmazó táblázatot! 1985-ben ötezer dollárba került egy ezerszavas szótárt tartalmazó szoftvercsomag, amely nem volt képes a folytonos beszéd felismerésére, három óráig kellett tanítani a felhasználó hangjára és relatíve gyenge találati pontossággal működött. 2000-ben mindössze ötven dollárért vehettünk százezer szavas szoftvercsomagot, amely élőbeszéd-felismerővel rendelkezett, csak öt percig kellett tanítani, drasztikusan feljavított pontossággal működött, lehetővé tette a természetes nyelv felismerését (szerkesztési parancsokra és egyéb célokra) és további tulajdonságokkal is bírt.{725}

 

A szoftverfejlesztés produktivitása. Na és a szoftverfejlesztés? Én magam már negyven éve foglalkozom szoftverfejlesztéssel, így van némi rálátásom a témára. A szoftverfejlesztés produktivitásának megkettőződési idejét körülbelül hat évre becsülöm. Ez lassabb, mint a processzorok ár–teljesítmény-arányának felezési ideje, ami napjainkban jelenleg megközelítőleg egy év. Azonban a szoftverek produktivitása exponenciálisan növekszik. A ma elérhető fejlesztői eszközök, osztálykönyvtárak és támogató rendszerek sokkal hatékonyabbak, mint az évtizedekkel ezelőttiek. Jelenlegi projektjeimben mindössze három- vagy négyfős csapatok néhány hónap alatt képesek arra az eredményre, amelyek elérésén huszonöt évvel ezelőtt tucatnyi vagy még több ember legalább egy évig dolgozott volna.

 

A szoftverek komplexitása. Húsz éve a szoftverprogramok tipikusan ezer-tízezer sorból álltak. Ma az üzleti célú programok (például az ellátásilánc-vezérlő, gyári automatizáló, reptéri jegyfoglalási és biokémiai szimulációs rendszerek) sokmillió vagy még annál is több sort számlálnak. A legnagyobb védelmi rendszerek, mint például a Joint Strike Fighter, több tízmillió sorból állnak.

A szoftvervezérlő szoftverek komplexitása is sebesen nő. Az IBM úttörő szerepet vállal az autonóm számítástechnika területén, amelyben a rutinszerű információs technológiai támogatófunkciók teljes automatizáltságot nyernek majd.{726} Ezeket a rendszereket a saját viselkedési modelljeikkel fogják programozni, és az IBM szerint képesek lesznek „önkonfigurálásra, öngyógyításra, önoptimalizálásra és önvédelemre”. Az autonóm számítástechnika támogatószoftverjei több tízmillió kódsorból állnak majd (melyeknek minden sora több tíz byte-nyi információt tartalmaz). Így az információs komplexitást tekintve a szoftver már meghaladja az emberi genomban és támogató molekuláiban tárolt felhasználható információ mennyiségét.

Ám az egy programban található információ mennyisége nem a komplexitás legjobb mérőfoka. Egy program ugyanis lehet hosszú, de talán tele van haszontalan információval. Természetesen ugyanezt lehet elmondani a nagyon kevéssé hatékonyan kódolt genomról is. Történtek próbálkozások a szoftverkomplexitás mértékének meghatározására: például a Nemzeti Szabvány és Technológiai Intézet számítástechnika-kutatói, Arthur Watson és Thomas McCabe kidolgozták a Ciklomatikus Komplexitás Metrikát.{727} Ez a metrika a programlogika komplexitását méri, figyelembe véve az elágazási és döntési pontok szerkezetét. Az indexek által mért, nem ellenőrzött kutatási eredmény arra enged következtetni, hogy sebesen növekszik a programok komplexitása, bár a megkettőződési idő nyomon követéséhez nem áll elég adat a rendelkezésünkre.

A lényeg viszont az, hogy az iparban ma használt legösszetettebb szoftverrendszerek magasabb komplexitással bírnak, mint az agyi területek neuromorf-alapú szimulációját, valamint az egyes idegsejtek biokémiai szimulációját végző szoftverek. Már képesek vagyunk olyan szoftverkomplexitási szinteket kezelni, amelyek meghaladják az emberi agyban felfedezett párhuzamos, önszerveződő fraktálalgoritmusok modellezéséhez és lemásolásához szükséges komplexitást.

 

Gyorsuló algoritmusok. A (konstans hardverbe ágyazott) szoftveralgoritmusok sebességében és hatékonyságában drámai előrelépések történtek. Így például a hardver és szoftver egyenrangú felgyorsulásával javult a jelfeldolgozó, mintafelismerő és mesterségesintelligencia-programokba ágyazott alapvető matematikai függvények műszaki megoldásainak ár–teljesítmény-aránya. Ezen javulások mértéke a problémakörtől függően változó, mindazonáltal általánosnak mondható.

Vegyük például a jelfeldolgozást, amely széles körű és intenzív számítást igénylő feladat úgy a számítógépek, mint az emberi agy számára! A Georgiai Technológiai Intézet kutatója, Mark A. Richards és az MIT tudósa, Gary A. Shaw a jelfeldolgozási algoritmusok trendszerűen növekvő hatékonyságát figyelték meg.{728} Például ahhoz, hogy mintákat találjunk a jelekben, gyakran meg kell oldanunk különböző, úgynevezett parciális differenciálegyenleteket. Az algoritmus-szakértő Jon Bentley kimutatta, hogy az ezen problémaosztály megoldásához szükséges számítási műveletek száma folyamatosan csökken.{729} 1945 és 1985 között például egy reprezentatív alkalmazást tekintve (egy elliptikus parciális differenciális megoldását megtalálni egy minden oldalán hatvannégy elemes háromdimenziós rácson), a szükséges műveletek száma háromszázezerszer kevesebb lett. Ez a hatékonyságnövekedés nyelvén évi 38%-os javulást jelent (a hardverfejlesztéseket nem számítva).

Egy másik példa az információtovábbítás képessége nem adattovábbításra optimalizált sima telefonvonalakon, ami tizenkét év alatt 300 bit per szekundumról 56 000 bps-re, azaz évente 55%-kal nőtt.{730} Ezek a javulások részben hardverfejlesztések eredményei, de legnagyobb részben az algoritmusok innovációjának következményei.

Az egyik legfontosabb jelfeldolgozási probléma egy jel frekvenciakomponensekre bontása a Fourier-transzformáció segítségével, amely a jeleket szinuszhullámok összegeként fejezi ki. Ezt a módszert alkalmazzák a komputerizált beszédfelismerés fejlesztésének élvonalában és egyéb alkalmazásokban is. Az emberi auditív percepció is azzal kezdi a működését, hogy a belső fülben frekvenciakomponensekre bontja a beszédjeleket. Az 1965-ös „gyors Fourier-transzformációra” kidolgozott „radix-2 Cooley–Tukey-algoritmus” körülbelül kétszázzal csökkentette az 1024 pontos Fourier-transzformációhoz szükséges műveletek számát.{731} Egy továbbfejlesztett „radix-4” módszer tovább javította az eredményt nyolcszázra. Nemrégiben megjelentek a „wavelet” transzformációk, amelyek képesek tetszőleges jeleket a szinuszhullámoknál komplexebb hullámformák összegeként is kifejezni. Ezek a módszerek tovább növelik a jelek meghatározó komponenseikké történő lebontásának hatékonyságát. A fenti példák nem kivételesek: a legtöbb számítástechnikailag intenzív alapalgoritmus jelentős műveletszám-csökkentésen esett át. A példák közt említhetjük még a rendezést, keresést, autokorrelációt (és egyéb statisztikai módszereket), valamint az adattömörítést és kitömörítést. Az algoritmusok párhuzamosításában – azaz egy adott módszer több szimultán végezhető módszerre való bontásában – is történtek előrelépések. Mint már korábban kifejtettem, a párhuzamos feldolgozás eredendően alacsonyabb hőmérsékleten történik. Az agy nagymértékű párhuzamos feldolgozást végez, ami által komplexebb funkciókra és gyorsabb reakcióidőkre képes, és az optimális számítástechnikai sűrűségek eléréséhez nekünk is hasznosítanunk kell majd ezt a megközelítést a gépeinkben.

Van egy alapvető különbség is a hardver ár–teljesítmény-arányának javulása és a szoftverhatékonyság javulása között. A hardverfejlesztések meglehetősen következetesek és előrevetíthetők. Az új hardversebességek és hatékonysági szintek elérésével olyan eszközöket nyerünk, amelyekkel az exponenciális fejlődés újabb lépcsőfokára hághatunk. A szoftverfejlesztés lépcsői viszont kevésbé kiszámíthatóak. Richards és Shaw „a fejlesztési idő féregjáratainak” nevezik ezeket a szinteket, mert gyakran egyetlen algoritmikus fejlesztéssel évek hardverfejlesztésének megfelelő eredményt érhetünk el. Ne felejtsük el, hogy csak azért, mert számíthatunk a hardver folyamatosan gyorsuló fejlődésére, attól még nem feltétlenül várhatjuk el a szoftverhatékonyság folyamatos javulását! Mindazonáltal az algoritmikus áttörések haszna jelentősen hozzájárul ahhoz, hogy elérjük az emberi intelligencia emulálásához szükséges általános számítástechnikai hatékonyságot, és az efféle forradalmi újítások száma valószínűleg tovább fog gyarapodni.

 

Az intelligens algoritmusok végső forrása. Nyomatékosan hangsúlyozni szeretném, hogy igenis létezik egy nagyon határozott terv az emberi intelligencia gépekben való lemásolására: visszafejtjük az emberi agy által használt párhuzamos, kaotikus, önszerveződő és fraktálmódszereket, és a modern számítástechnikai hardverre alkalmazzuk őket. Az emberi agyról és módszereiről alkotott exponenciálisan növekvő tudásanyagot eddig a pontig nyomon követve (lásd a negyedik fejezetet) arra számíthatunk, hogy húsz éven belül részletes modelljeink és szimulációink lesznek a gyűjtőnéven emberi agynak nevezett több száz információfeldolgozó szervről.

Az emberi intelligencia működési elveinek megértése bővíti majd a mesterségesintelligencia-algoritmusokból épített eszközkészletünket. Ha ezeket a módszereket széles körben alkalmazzuk gépi mintafelismerő rendszereinkben, a tervező által előre nem látott kifinomult és komplex viselkedéseket kapunk. Az önszerveződő módszerek nem biztosítanak egyszerű átmenetet a komplex és intelligens viselkedés megteremtéséhez, de ugyanakkor fontos eszközeink, amelyekkel az egyértelműen programozott logikai struktúrák sérülékenysége nélkül növelhetjük a rendszer komplexitását.

Mint már korábban is említettem, az emberi agy maga egy genomból alakul ki, amelyben mindössze harminc-százmillió byte-nyi hasznos, tömörített információ található. Hogyan lehetséges akkor, hogy egy ilyen kicsiny genomból kifejlődjön egy százbillió kapcsolatot működtető szerv? (Úgy ítélem, csak az emberi agy jellemzéséhez szükséges kapcsolati adatok összessége egymilliószor nagyobb, mint a genomban tárolt információ.){732} A válasz az, hogy a genom folyamatokat határoz meg, melyek mindegyike kaotikus módszereket (azaz kezdeti véletlenszerűséget, aztán önszerveződést) alkalmaz a reprezentált információmennyiség bővítésére. Tudjuk például, hogy a kapcsolatok huzalozása nagymértékben véletlenszerű alapokra épül. Amint egy személy találkozik a környezetével, a kapcsolatok és az idegátviteli szintű minták önszerveződnek, hogy jobban reprezentálják a világot, ám a kezdeti struktúrát egy korántsem a végletekig komplex program határozza meg.

Nem hiszem, hogy láncszemről láncszemre fogjuk programozni az emberi intelligenciát valamiféle masszív, szabályalapú szakértői rendszerben.

Arra sem számítok, hogy az emberi intelligencia által képviselt megannyi képesség széles tárháza egy nagyszabású genetikai algoritmusból fog előbukkanni. Lanier jól teszi, hogy aggódik, amikor azt mondja, az ilyen megközelítések elkerülhetetlenül leragadnának valamilyen lokális minimumban (egy olyan tervnél, amely jobb, mint a hozzá nagyon hasonló tervek, de összességében nem a legeslegjobb). Lanier – Richard Dawkinshoz hasonlóan – rámutat, hogy a biológiai evolúció „kihagyta a kereket” (mármint, hogy egy organizmus sem fejlesztett ki ilyen szervet).

Valójában ez nem teljesen igaz – fehérjeszinten léteznek kis, kerékszerű struktúrák, például a bakteriális flagellum ionos motorja, amely alkalmas a háromdimenziós környezetben való közlekedésre.{733} A nagyobb organizmusok esetében a kerekek persze nem túl hasznosak utak nélkül, és ezért nem fejlődtek ki biológiai kerekek a kétdimenziós felszíni közlekedéshez.{734} Azonban az evolúció alkotott egy olyan fajt, amely mind a kereket, mind az utat feltalálta, és így végül is a folyamatnak sikerült közvetett módon sok-sok kereket létrehoznia. A közvetett módszerekkel nincsen semmi baj; a tervezésben minduntalan használjuk őket. Valójában még az evolúció is közvetett módon működik (azaz az egyes szintek eredményei alkotják a következő szintet).

Az agy mérnöki visszafejtése nem az egyes idegsejtek lemásolására korlátozódik. Az ötödik fejezetben láthattuk, miként lehet a jelentős, több millió és milliárd idegsejtet tartalmazó agyi területeket funkcionálisan ekvivalens, párhuzamos algoritmusok bevezetésével modellezni. Az ilyen neuromorf megközelítések megvalósíthatóságát néhány tucat agyi terület szimulációjával és modelljével bizonyították. Mint már említettem, ez gyakran azt eredményezi, hogy a számítástechnikai követelmények jelentősen lecsökkennek, ahogyan azt Lloyd Watts, Carver Mead és mások bemutatták.

Lanier azt írja, „ha valaha létezett is komplex, kaotikus jelenség, akkor mi azok vagyunk”. Egyetértek vele, de én nem akadálynak látom ezt. A saját érdeklődési területem a kaotikus számítástechnika, ami a mintafelismerés alapja, amely pedig végül az emberi intelligencia központi kérdése. A káosz része a mintafelismerési folyamatnak – a folyamat vezérelve –, és nincs okunk arra, hogy ne használjuk ezeket a módszereket a gépeinkben úgy, ahogyan a saját agyunkban működnek.

Lanier szerint „az evolúció fejlődött, például a nemek megjelenése folytán, de soha nem talált kitörési utat a lassúságból”. Ám ez a megjegyzés csak a biológiai evolúcióra alkalmazható, és a technológiaira nem. Éppen ezért történhetett meg az, hogy meghaladtuk biológiai evolúciónkat. Lanier nem veszi figyelembe az evolúciós folyamat eredendő természetét: azért gyorsul fel, mert minden szint egyre erősebb módszereket állít elő a következő szint létrehozására. Több milliárd év telt el az első biológiai evolúciós lépéstől (az RNS-től) a mai technológiai evolúció sebes fejlődéséig. A világháló csupán néhány év alatt jelent meg, jól láthatóan egy sokkal gyorsabb változás révén, mint mondjuk a kambriumi robbanás. Ezek a jelenségek mind ugyanannak az evolúciós folyamatnak a részei, amely lassan indult, most relatíve gyorsan zajlik, és néhány évtizeden belül elképesztő sebességre tesz majd szert.

Lanier azt írja: „a mesterséges intelligencia kifejlesztésére irányuló egész vállalkozás egy intellektuális tévedésen alapul”. Amíg a számítógépek nem képesek legalább leképezni az emberi intelligenciát minden dimenziójában, a szkeptikusok mindig mondhatják, hogy a pohár félig üres. Minden új, mesterséges intelligenciával kapcsolatos áttörés félresöpörhető, ha további, el nem ért célokra mutatunk. Pontosan ez bántja a gyakorló MI-kutatót is: ha a mesterségesintelligencia-kutatás eléri az egyik célkitűzését, az eredmény többé már nem esik a mesterséges intelligencia tárgykörébe, hanem mint hasznos általános technikára tekintenek rá. A mesterséges intelligenciát ezért gyakran a meg nem oldott problémák területének tartják.

Ám a gépek intelligenciája valóban gyarapodik, és egyre szélesedik azoknak a korábban emberi figyelmet igénylő feladatoknak a skálája, amelyeket képesek megoldani. Mint arról már említést tettem az ötödik és hatodik fejezetben, itt példaként említhetnénk a már ma is működő mesterséges intelligenciák több száz fajtáját.

Ha egyszer létrehozzuk az emberi intelligencia teljes modelljét, a gépek ötvözni tudják majd a mintafelismerés rugalmas és kifinomultan emberi szintjeit a gépi intelligencia olyan természetes előnyeivel, mint például a sebesség, a memóriakapacitás és legfőképpen a tudás, valamint a képességek gyors megosztása.

 

Az analóg feldolgozás kritikája

 

Sok kritikus, ahogyan a zoológus és evolúciós algoritmusokat kutató Thomas Ray, támadja a hozzám hasonló elméleti gondolkodókat, akik intelligens számítógépekről beszélnek, hiszen szerintük mi „nem látjuk a digitális médium egyedi természetét”.{735}

Először is, tézisem szerint az analóg és digitális módszerek ugyanúgy kombinálódnak majd a mesterséges intelligenciákban, ahogy az emberi agyban is. Például a fejlettebb neurális hálók már az emberi idegsejtek legapróbb részletekre kiterjedő modelljeit alkalmazzák, a nemlineáris analóg aktiválási funkciókkal együtt. Jelentős hatékonysági előnyt jelent az agy analóg módszereinek leképezése. Az analóg módszerek nem a biológiai rendszerek kizárólagos tulajdonságai. Régebben „digitális számítógépeknek” neveztük az új fejlesztéseket, hogy megkülönböztessük őket a második világháború előtt széles körben használt analóg számítógépektől.

Carver Mead munkássága megmutatta, hogy a szilícium alapú áramkörök képesek digitálisan vezérelt, az emlősök neurális köreinek megfeleltethető és valójában azok alapján kifejlesztett analóg áramköröket működtetni. A hagyományos tranzisztorok könnyedén újra létrehozzák az analóg módszereket, hiszen ezek alapjában véve analóg eszközök. A tranzisztort csak a kimenetét egy küszöbértékkel összehasonlító mechanizmus teszi digitális eszközzé.

Ám ami még ennél is fontosabb, nincsen olyan analóg módszerekkel elvégezhető feladat, amelyet a digitális módszerek ne tudnának ugyanolyan jól végrehajtani. Az analóg folyamatokat lehet digitális módszerekkel emulálni (lebegőpontos ábrázolással), míg ennek az ellenkezője nem minden esetben igaz.

 

Az idegi feldolgozás komplexitásának kritikája

 

Egy másik gyakori kritika az, hogy az agy biológiai felépítésének finom részletessége túl összetett ahhoz, hogy nem biológiai technológia útján modellezni és szimulálni lehessen. Például Thomas Ray azt írja:

 

„Az agy, illetve az összetevőinek szerkezete és funkciója nem választható szét egymástól. A keringési rendszer életben tartja az agyat, de hormonokat is szállít, amelyek szerves részei az agy kémiai információfeldolgozó funkciójának. A idegsejtek hártyája olyan szerkezeti tulajdonság, amely meghatározza az idegsejt határait és integritását, de egyben felület is, amelyen a depolarizáció jeleket továbbít. A szerkezeti és létfenntartó funkciók tehát nem különíthetők el az információkezeléstől.”{736}

 

Ezt követően Ray hosszan részletezi az agy „kémiai kommunikációs mechanizmusainak széles körét”.

Valójában ezeket a tulajdonságokat könnyen modellezhetjük, és ezen a területen már komoly eredményeket értünk el. A közvetítő nyelv a matematika, és a matematikai modellek megfelelő nem biológiai mechanizmusokra való lefordítása (ahogy az eredeti analóg üzemmódú tranzisztorokat használó számítógép-szimulációk és áramkörök ezt példázzák is) viszonylag egyértelmű folyamat. A hormonokat szállító keringési rendszer például egy rendkívül alacsony sávszélességű jelenség, amelyet nem nehéz modellezni és lemásolni. Az adott hormonok és egyéb vegyületek szintje által befolyásolt paraméterértékek egyszerre rengeteg szinapszisra vannak hatással.

Thomas Ray azzal zárja az érvelését, hogy „egy fémből készült számítógépes rendszer alapvetően más dinamikus tulajdonságokkal rendelkezik, és pontosan soha nem képezheti le az agy működését”. Ha figyelemmel kísérjük a neurobiológia kapcsolódó területein – az agyletapogatáson, az idegsejtek és neurális területek modellezésén, a neuroelektronikus kommunikáción, az idegi implantátumok terén és egyéb kísérleti területeken – történő kutatásokat, láthatjuk, hogy a biológiai információfeldolgozás működésének lemásolása bármilyen kívánt pontossági szintet elérhet. Más szóval a lemásolt működés lehet „elég jó másolat” ahhoz, hogy elérjen bármilyen elképzelhető célt – mondjuk, hogy átmenjen a Turing-teszten. Továbbá láthatjuk, hogy a matematikai modellek hatékony működtetése lényegesen kisebb számítástechnikai kapacitást igényel, mint amit a biológiai idegsejtcsoportok modellezése elméletileg megkívánna. A negyedik fejezetben áttekintettem néhány ilyen agyterületi modellt (Watts auditív területeit, a cerebellumot és egyebeket).

 

Agyi komplexitás. Thomas Ray többek között azt is állítja, hogy nehézségünk támadhat egy „több milliárd soros kódnak” megfelelő rendszer megalkotásával, amely komplexitási szintet az emberi agynak tulajdonítja. Ez a szám azonban fel van nagyítva, mert mint láttuk, az agyunk egy mindössze harminc-százmillió byte egyedülálló információt tartalmazó genomból (nyolcszázmillió byte tömörítés nélkül, de a tömörítés egyértelműen elképzelhető a nagymértékű redundancia miatt) alakult ki, aminek talán kétharmada írja le az agy működési elvét. Éppen az önszerveződő folyamatok azok, amelyek hordozzák a véletlenszerűség elemeit (miközben a való világ felé is nyitnak), ami képes viszonylag kevés tervinformációt kiterjeszteni az érett emberi agy által képviselt több billiárd byte-nyi információra. Hasonlóképpen, az emberszintű intelligencia megalkotása egy nem biológiai entitásban nem egy több milliárd szabályból vagy sorból álló kód alapján működő, masszív szakértő rendszer létrehozását jelenti, hanem sokkal inkább egy tanulni képes, kaotikus, önszervező, biológiai alapon működő rendszerét.

Ray folytatja: „Mérnökeink talán felvetik a fullerénkapcsolókkal működő nanomolekuláris eszközök, vagy akár a DNS-szerű számítógépek gondolatát. Azonban biztosan nem gondolnak az idegsejtekre. Az idegsejtek csillagászati méretű szerkezetek a mi kiindulási alapnak vett molekuláinkhoz képest.”

Én is éppen ezt szeretném hangsúlyozni. Az agy visszafejtésének célja nem az idegsejtek emésztő vagy egyéb ormótlan folyamatainak a lemásolása, hanem a legfontosabb információfeldolgozó módszereik megértése. Ennek megvalósíthatóságát már több tucat mai projektben megfigyelhettük. A sikeresen emulált idegsejtcsoportok komplexitása nagyságrendekkel növekszik, de ezzel együtt minden egyéb technológiai képességünk is gyarapodik.

 

A számítógépek eredendő dualitása. A Redwood Agykutató Intézet tudósa, Anthony Bell két kifogást emel az agy számítástechnika általi modellezésével és lemásolásával szemben. Először is kijelenti, hogy a számítógépek eredendően kettős entitások, amelyek fizikai felépítése úgy van kialakítva, hogy ne akadályozza a számításokat kivitelező logikai felépítést. Empirikus megfigyelés alapján kijelenthetjük, hogy az agy nem duális entitás. A számítógép és programja két külön dolog, de az agy és az elme szétválaszthatatlan egymástól. Az agy ennélfogva nem gép, más szóval nem egy véges modell (vagy számítógép), amelyet tárgyi síkon úgy hozunk létre, hogy fizikai megtestesülése ne keveredjen ellentmondásba a modell (vagy program) végrehajtásával.{737}

Ezt az érvelést könnyedén megcáfolhatjuk. A számítógépben a program és a számolást végző fizikai megtestesülés szétválaszthatósága nem hátrány, hanem éppenséggel előny. Először is, vannak elektronikus eszközeink, melyeknek az áramköreiben a „számítógép és program” nem két külön dolog, hanem egy és ugyanaz. Ezek az eszközök nem programozhatóak, hanem egy specifikus algoritmuskészletre vannak huzalozva. Nem csak az olvasható memóriában tárolt szoftverrel („firmware-rel”) rendelkező számítógépekről beszélek, amilyenek egy mobiltelefonban vagy zsebszámítógépben találhatók. Egy ilyen rendszerben az elektronika és a szoftver még akkor is duálisnak tekinthető, ha a programot nem lehet könnyedén megváltoztatni.

Valójában inkább az egyáltalán nem programozható, célorientált logikával rendelkező rendszerekre gondolok – mint az alkalmazásspecifikus integrált áramkörök (amelyeket például kép- és jelfeldolgozásra használnak). Ez az algoritmusok működtetésének költséghatékony módja, és számos elektronikus fogyasztási cikk használ ilyen áramköröket. A programozható számítógépek költségesebbek, ugyanakkor rugalmasságot biztosítanak, ami változtathatóvá és fejleszthetővé teszi a szoftvert. A programozható számítógépek képesek lemásolni bármilyen célorientált rendszer működését, többek között az idegi összetevők, idegsejtek és agyi területek tanulmányozásakor (az agy visszafejtése közben) felfedezett algoritmusokat is.

Nem tartható az a megállapítás, hogy egy rendszer, amelyben a logikai algoritmus eredendően a fizikai felépítéshez kötődik, „nem lehet gép”. Ha a működési elve érthető, matematikailag modellezhető és egy másik rendszerben megvalósítható (akár egy változtathatatlan célorientált logikájú gépen, akár egy programozható számítógép szoftverjében), akkor azt a rendszert gépnek nevezhetjük, főként pedig olyan entitásnak, amelynek képességeit újrateremthetjük egy gépben. Mint azt a negyedik fejezetben hosszasan tárgyaltam, nem állnak előttünk korlátok az agy működési elveinek felfedezése, de a molekuláris kölcsönhatásoktól az egészen magas szintű összefüggésekig történő modellezése és szimulálása terén sem.

Bell azt állítja, hogy a számítógépek „fizikai felépítése úgy van kialakítva, hogy ne akadályozza a logikai felépítését”, amivel azt sugallja, az agyra nem jellemző ez a „korlátozottság”. Igaza van abban, hogy gondolataink segítenek az agyunk létrehozásában, és mint azt már kifejtettem a könyvben, ezt a jelenséget meg is figyelhetjük a dinamikus agyletapogatásban. Ám szoftverekkel könnyedén modellezhetjük és szimulálhatjuk az agy képlékenységének mind fizikai, mind logikai aspektusait. Az a tény, hogy a számítógépszoftverek elkülönülnek a fizikai hordozóiktól, architekturális előny, amelynek segítségével ugyanaz a szoftver alkalmazható a mindig megújuló hardverre. A számítógépszoftver – csakúgy, mint az agy változó körei – képes módosítani magát, és tetszés szerint frissíthető.

A számítógéphardver hasonlóképpen frissíthető a szoftver változtatása nélkül. Csupán az agy viszonylag merev felépítése az, ami erősen korlátozott. Bár az agy képes létrehozni új kapcsolatokat és ingerületátviteli mintákat, az elektronikánál több mint egymilliószor lassabb vegyi jelrendszerre, illetve a koponyánkban éppen hogy elférő, meghatározott számú interneurális kapcsolatra korlátozódik, továbbá nem frissíthető, hacsak nem a könyvben tárgyalt nem biológiai intelligenciával való összefonódás útján.

 

Szintek és ciklusok. Bell az agy látszólagos komplexitásáról is ír:

 
„Molekuláris és biofizikai folyamatok irányítják az idegsejtek érzékenységét (mind a szinaptikus hatékonyságot, mind a posztszinaptikus válaszadó képességet) a bejövő jelekre, az idegsejt tüzelésre való gerjeszthetőségét, az idegsejt által létrehozott jelsorozatok mintázatát és az új szinapszisok létrejöttének valószínűségét (a dinamikus újrakódolást), hogy csak négyet említsek a szubneurális szint legnyilvánvalóbb kölcsönhatásai közül. Továbbá ma már tudjuk, hogy a transzneurális mennyiségi jellemzők, mint például a helyi elektromos mezők és a nitrogén-monoxid transzmembrán diffúziója, hatással vannak a koherens idegi tüzelésre és a sejtekbe (a véráram útján) történő energiatovábbításra, mely utóbbi közvetlenül összefügg az idegi tevékenységgel.
A lista a végtelenségig sorolható. Úgy hiszem, hogy egy őszinte ember, aki komolyan tanulmányozza a neuromodulátorokat, ioncsatornákat vagy szinaptikus mechanizmusokat, nem tehet mást, mint hogy elveti az idegsejti szint mint különálló komputációs szint gondolatát, még ha deskriptív értelemben hasznos elképzelés is.”{738}

 

Bár Bell szerint a neurális szint nem az agy szimulálásának megfelelő szintje, elsődleges érve Thomas Ray fentebb tárgyalt kritikájához hasonlít: az agy bonyolultabb, mint az egyszerű logikai kapuk. Részletesen ki is fejti gondolatait:

 
„Nevetséges az az állítás, hogy egy adag strukturált víz vagy egy bizonyos kvantumkoherencia az agy funkcionális leírásának nélkülözhetetlen részletét jelenti. Ám ha az adott sejtek molekulái ezektől a szubmolekuláris folyamatoktól nyerik rendszerfunkciójukat, ha ezek a folyamatok az agy egész területén mindig használatban vannak, és visszatükrözik, rögzítik, valamint továbbítják a molekuláris fluktuációk térbeli és időbeli összefüggéseit, a kölcsönhatások valószínűségét és specifikumát erősítve vagy gyengítve, akkor a logikai kaputól minőségileg is eltérő helyzetet kapunk.”

 

Bell egy bizonyos szinten vitatja az idegsejtek és interneurális kapcsolatok sok neurálisháló-projektben használt, leegyszerűsített képét. Az agyterületi szimulációk azonban nem ilyen leegyszerűsített modelleket, hanem az agy visszafejtéséből nyert realisztikus matematikai sémákat használnak.

Bell igazából azt állítja, hogy az agy rendkívül bonyolult, és ez következésképpen azt jelenti, hogy nagyon nehéz megérteni, modellezni és szimulálni a működését. Nézőpontja csak ott hibádzik, hogy elfelejt számolni az agy felépítésének önszerveződő, kaotikus és fraktáltermészetével. Nem kétséges, hogy az agy komplex szerv, de a komplexitás nagy része inkább látszólagos, mint valós jelenség. Más szóval az agy felépítésének alapelvei egyszerűbbek, mint amilyennek tűnnek.

Hogy ezt megértsük, vegyük először az agy szerveződésének fraktáltermészetét, amit a második fejezetben tárgyaltam! A fraktál különleges alakzat, amelyet egy szabály ismétlődő alkalmazásával kapunk. A szabály gyakran rendkívül egyszerű, de az ismétlés révén a fraktál mintája meglehetősen összetett lesz. Ennek egyik híres példája a matematikus Benoit Mandelbrot által tervezett Mandelbrot-halmaz.{739} A Mandelbrot-halmaz vizuális megjelenítései feltűnően komplex képek, végtelenül bonyolult mintákba ágyazódó további bonyolult mintákkal. Amint a Mandelbrot-halmaz egyre apróbb részleteire irányítjuk a figyelmünket, a komplexitás nem tűnik el, és mindegyre finomabb összetettséget találunk. Ehhez képest az egész komplexitás mögött rejlő képlet meglepően egyszerű: a Mandelbrot-halmazt a Z = Z2 + C képlet írja le, ahol Z egy „komplex” (azaz kétdimenziós) szám, és C egy állandó. A képletet ismételve alkalmazzák, és az eredményként kapott kétdimenziós pontok egy mintát jelenítenek meg a grafikonon.

Arról van szó, hogy egy egyszerű szabály látszólagosan magasfokú komplexitást eredményezhet. Stephen Wolfram hasonlóképpen érvel, amikor egyszerű szabályokat alkalmaz sejtautomatákon (lásd a második fejezetet). Ez a felfedezés igaz az agy felépítésére is. Mint már bemutattam, a tömörített genom relatíve összetett minta, kisebb, mint sok mai program. Bell felhívja a figyelmet arra, hogy az agy valós kivitelezése sokkalta komplexebbnek látszik, mint a genomban foglalt komplexitás. Ugyanúgy, mint a Mandelbrot-halmaz esetében, amikor az agy mind finomabb és finomabb struktúráit elemezzük, minden szinten látszólagos komplexitást találunk. Makroszinten a kapcsolatok mintája bonyolultnak tűnik; mikroszinten nemkülönben, például az idegsejt egy része, mondjuk a dendrit. Már említettem, hogy legalább több billiárd byte-ra lenne szükségünk az emberi agy pillanatnyi állapotának jellemzéséhez, ám mindössze több tízmillió byte-ra ahhoz, hogy a felépítését leírjuk. Így az agy látszólagos komplexitásának aránya a tervinformációhoz legalább százmillió az egyhez. Az agy összinformáció-tartalma meglehetősen véletlenszerű információhalmazként indul, de amint maga a szerv kölcsönhatásba lép egy komplex környezettel (azaz amint tulajdonosa tanul és érik), az információ jelentést nyer.

A szingularitás küszöbén
titlepage.xhtml
jacket.xhtml
A_szingularitas_kuszoben_split_000.html
A_szingularitas_kuszoben_split_001.html
A_szingularitas_kuszoben_split_002.html
A_szingularitas_kuszoben_split_003.html
A_szingularitas_kuszoben_split_004.html
A_szingularitas_kuszoben_split_005.html
A_szingularitas_kuszoben_split_006.html
A_szingularitas_kuszoben_split_007.html
A_szingularitas_kuszoben_split_008.html
A_szingularitas_kuszoben_split_009.html
A_szingularitas_kuszoben_split_010.html
A_szingularitas_kuszoben_split_011.html
A_szingularitas_kuszoben_split_012.html
A_szingularitas_kuszoben_split_013.html
A_szingularitas_kuszoben_split_014.html
A_szingularitas_kuszoben_split_015.html
A_szingularitas_kuszoben_split_016.html
A_szingularitas_kuszoben_split_017.html
A_szingularitas_kuszoben_split_018.html
A_szingularitas_kuszoben_split_019.html
A_szingularitas_kuszoben_split_020.html
A_szingularitas_kuszoben_split_021.html
A_szingularitas_kuszoben_split_022.html
A_szingularitas_kuszoben_split_023.html
A_szingularitas_kuszoben_split_024.html
A_szingularitas_kuszoben_split_025.html
A_szingularitas_kuszoben_split_026.html
A_szingularitas_kuszoben_split_027.html
A_szingularitas_kuszoben_split_028.html
A_szingularitas_kuszoben_split_029.html
A_szingularitas_kuszoben_split_030.html
A_szingularitas_kuszoben_split_031.html
A_szingularitas_kuszoben_split_032.html
A_szingularitas_kuszoben_split_033.html
A_szingularitas_kuszoben_split_034.html
A_szingularitas_kuszoben_split_035.html
A_szingularitas_kuszoben_split_036.html
A_szingularitas_kuszoben_split_037.html
A_szingularitas_kuszoben_split_038.html
A_szingularitas_kuszoben_split_039.html
A_szingularitas_kuszoben_split_040.html
A_szingularitas_kuszoben_split_041.html
A_szingularitas_kuszoben_split_042.html
A_szingularitas_kuszoben_split_043.html
A_szingularitas_kuszoben_split_044.html
A_szingularitas_kuszoben_split_045.html
A_szingularitas_kuszoben_split_046.html
A_szingularitas_kuszoben_split_047.html
A_szingularitas_kuszoben_split_048.html
A_szingularitas_kuszoben_split_049.html
A_szingularitas_kuszoben_split_050.html
A_szingularitas_kuszoben_split_051.html
A_szingularitas_kuszoben_split_052.html
A_szingularitas_kuszoben_split_053.html
A_szingularitas_kuszoben_split_054.html
A_szingularitas_kuszoben_split_055.html
A_szingularitas_kuszoben_split_056.html
A_szingularitas_kuszoben_split_057.html
A_szingularitas_kuszoben_split_058.html
A_szingularitas_kuszoben_split_059.html
A_szingularitas_kuszoben_split_060.html
A_szingularitas_kuszoben_split_061.html
A_szingularitas_kuszoben_split_062.html
A_szingularitas_kuszoben_split_063.html
A_szingularitas_kuszoben_split_064.html
A_szingularitas_kuszoben_split_065.html
A_szingularitas_kuszoben_split_066.html
A_szingularitas_kuszoben_split_067.html
A_szingularitas_kuszoben_split_068.html
A_szingularitas_kuszoben_split_069.html
A_szingularitas_kuszoben_split_070.html
A_szingularitas_kuszoben_split_071.html
A_szingularitas_kuszoben_split_072.html
A_szingularitas_kuszoben_split_073.html
A_szingularitas_kuszoben_split_074.html
A_szingularitas_kuszoben_split_075.html
A_szingularitas_kuszoben_split_076.html
A_szingularitas_kuszoben_split_077.html
A_szingularitas_kuszoben_split_078.html
A_szingularitas_kuszoben_split_079.html
A_szingularitas_kuszoben_split_080.html
A_szingularitas_kuszoben_split_081.html
A_szingularitas_kuszoben_split_082.html
A_szingularitas_kuszoben_split_083.html
A_szingularitas_kuszoben_split_084.html
A_szingularitas_kuszoben_split_085.html
A_szingularitas_kuszoben_split_086.html
A_szingularitas_kuszoben_split_087.html
A_szingularitas_kuszoben_split_088.html
A_szingularitas_kuszoben_split_089.html
A_szingularitas_kuszoben_split_090.html
A_szingularitas_kuszoben_split_091.html
A_szingularitas_kuszoben_split_092.html
A_szingularitas_kuszoben_split_093.html
A_szingularitas_kuszoben_split_094.html
A_szingularitas_kuszoben_split_095.html
A_szingularitas_kuszoben_split_096.html
A_szingularitas_kuszoben_split_097.html
A_szingularitas_kuszoben_split_098.html
A_szingularitas_kuszoben_split_099.html
A_szingularitas_kuszoben_split_100.html
A_szingularitas_kuszoben_split_101.html
A_szingularitas_kuszoben_split_102.html
A_szingularitas_kuszoben_split_103.html
A_szingularitas_kuszoben_split_104.html
A_szingularitas_kuszoben_split_105.html
A_szingularitas_kuszoben_split_106.html
A_szingularitas_kuszoben_split_107.html
A_szingularitas_kuszoben_split_108.html
A_szingularitas_kuszoben_split_109.html
A_szingularitas_kuszoben_split_110.html
A_szingularitas_kuszoben_split_111.html
A_szingularitas_kuszoben_split_112.html
A_szingularitas_kuszoben_split_113.html
A_szingularitas_kuszoben_split_114.html
A_szingularitas_kuszoben_split_115.html
A_szingularitas_kuszoben_split_116.html
A_szingularitas_kuszoben_split_117.html
A_szingularitas_kuszoben_split_118.html
A_szingularitas_kuszoben_split_119.html
A_szingularitas_kuszoben_split_120.html
A_szingularitas_kuszoben_split_121.html
A_szingularitas_kuszoben_split_122.html
A_szingularitas_kuszoben_split_123.html
A_szingularitas_kuszoben_split_124.html
A_szingularitas_kuszoben_split_125.html
A_szingularitas_kuszoben_split_126.html
A_szingularitas_kuszoben_split_127.html
A_szingularitas_kuszoben_split_128.html
A_szingularitas_kuszoben_split_129.html
A_szingularitas_kuszoben_split_130.html
A_szingularitas_kuszoben_split_131.html
A_szingularitas_kuszoben_split_132.html
A_szingularitas_kuszoben_split_133.html
A_szingularitas_kuszoben_split_134.html
A_szingularitas_kuszoben_split_135.html
A_szingularitas_kuszoben_split_136.html
A_szingularitas_kuszoben_split_137.html
A_szingularitas_kuszoben_split_138.html
A_szingularitas_kuszoben_split_139.html
A_szingularitas_kuszoben_split_140.html
A_szingularitas_kuszoben_split_141.html
A_szingularitas_kuszoben_split_142.html
A_szingularitas_kuszoben_split_143.html
A_szingularitas_kuszoben_split_144.html
A_szingularitas_kuszoben_split_145.html
A_szingularitas_kuszoben_split_146.html