Harmadik
fejezet
Az emberi agy számítási
képességeinek kihasználása
„Ahogyan azt az Engines of Creationben (A teremtés motorjai) tárgyaltam, ha valaki képes valódi MI-t építeni, akkor joggal feltételezhetjük, hogy olyan dolgokat is képes építeni, mint például a több milliószor gyorsabb neuronok. Ebből következően pedig képes létrehozni olyan rendszereket, amelyek az embernél milliószor gyorsabban gondolkodnak. Mesterséges intelligenciával felruházva ezek a rendszerek képesek tervezni. Hozzávéve ehhez a rendszernek azt a képességét, hogy olyasvalamit építsen, ami jobb, mint saját maga, megnyílik a lehetőség egy nagyon hirtelen bekövetkező átmenet előtt. Ezzel a helyzettel talán még annál is nehezebb mit kezdeni, mint a nanotechnológiával, ám jelenleg még annál is nehezebb konstruktívan gondolkodni róla. Ezért nem is állt az általam tárgyalt témák középpontjában, bár rendszeresen rámutatok, és jelzem: »Ez is fontos«.”
(Eric Drexler, 1989)
A számítástechnológia hatodik paradigmája:
a háromdimenziós molekuláris számítás, és az ebből kinövő számítástechnika
Az Electronics 1965. április 19-ei számában Gordon Moore így írt: „Az integrált elektronika jövője magának az elektronikának a jövője. Az integráltság előnyei az egész elektronikát fel fogják lendíteni, és számos új területet nyitnak e tudományág előtt.”{138} Moore ezekkel a visszafogott szavakkal olyan forradalmat indított el, amely még ma is egyre nagyobb lendületre tesz szert. Hogy érzékeltesse olvasóival, milyen mélyreható változásokat fog okozni ez az új tudomány, ezt jósolta: „1975-re a gazdaság ki fogja kényszeríteni, hogy akár 65 000 alkatrészt is rázsúfoljunk egyetlen szilíciumchipre.” Most képzeljük el!
Moore ebben a cikkében írt arról, hogy évente megduplázódik az egy integrált áramkörre zsúfolható tranzisztorok száma (amikből a számítási elemek, a logikai kapuk felépülnek). Az 1965-ben született „Moore törvénye” előrejelzést születésekor több kritika is érte, mivel az egy chipre integrált alkatrészek számát ábrázoló, logaritmikus skálájú diagramján mindössze öt hivatkozási pontot vett fel (1959-től 1965-ig), így korainak tűnt az éppen csak kibontakozófélben lévő trend egészen 1975-ig való előrevetítése. Moore első becslése pontatlan volt, és egy évtizeddel később korrigálta is. Azonban az alapgondolat – az elektronika ár–teljesítmény-arányának exponenciális javulása az integrált áramkörökre zsúfolt tranzisztorok méretének zsugorítása miatt – helyes és korát megelőző felismerés volt.{139}
Ma nem több ezer, hanem több milliárd alkatrészről beszélünk. A legfejlettebb 2004-es chipekben a logikai kapuk mindössze ötven nanométer szélesek, s ezzel már bőven a nanotechnológia birodalmába esnek (ami a száz nanométernél kisebb nagyságrenddel foglalkozik). Rendszeresen megjósolták, hogy Moore törvénye érvényét fogja veszíteni, ennek a figyelemre méltó paradigmának a vége mégis egyre jobban kitolódik az időben. Paolo Gargini, az Intel technológiai stratégiájának igazgatója, a nagy befolyással rendelkező ITRS („Nemzetközi technológiai ütemterv a félvezetőkre”, International Technology Roadmap for Semiconductors) elnöke a közelmúltban így nyilatkozott: „Úgy látjuk, hogy legalább az elkövetkező 15-20 évben továbbra is támaszkodhatunk Moore törvényére. Sőt… a nanotechnológia számos új paramétert kínál még fel, melyeket variálva még több alkatrészt zsúfolhatunk egy chipre.”{140}
A számítástechnika felgyorsulása mindent átalakított, a társadalmi és gazdasági kapcsolatoktól kezdve a politikai intézményekig, ahogyan azt a könyv hátralévő részében szemléltetni is fogom. Moore azonban arra nem mutatott rá az írásaiban, hogy a csíkszélesség csökkentése valójában nem az első olyan paradigma volt, amely exponenciális növekedést okozott a számítástechnikában és a kommunikációban, hanem az ötödik, és már most láthatjuk a következőnek a körvonalait: a molekuláris szintű, háromdimenziós számítástechnikáét. Noha az ötödik paradigma élettartamából még több mint egy évtized hátravan, lenyűgöző fejlődés következett be mindazon technológiák területén, melyek előfeltételei a hatodik paradigmának. A következő részekben elemzem az emberi intelligenciaszint eléréséhez szükséges számítási és memóriakapacitást, és azt, hogy miért lehetünk biztosak abban, hogy olcsó számítógépekkel is elérjük ezt a szintet a következő két évtized során. Még ezek a nagy teljesítményű számítógépek is messze lesznek az optimálistól. A fejezet utolsó szakaszában áttekintem a ma ismert fizikai törvények által a számítási teljesítmény további növekedése elé állított korlátokat. Ezzel eljutunk a körülbelül a XXI. század végi számítógépekhez.
A híd a 3D-s molekuláris számításhoz. Már megtörténtek a közbülső lépések: a háromdimenziós, molekuláris számítástechnika paradigmájához elvezető új technológiák között találjuk a nanocsöveket és a nanocsövek alkotta áramköröket, a molekuláris számítástechnikát, az önszerveződő nanocsöveket, az áramköröket emuláló biológiai rendszereket, a DNS-sel végzett számításokat, a spintronikát (az elektronok spinjével végzett számításokat), a fényen alapuló és a kvantum-számítástechnikát. Ezek közül az egymástól független technológiák közül több is integrálható azokba a számítórendszerekbe, melyek végül meg fogják közelíteni az anyag és az energia elméleti maximális számítási kapacitását, és messze meg fogják haladni az emberi agy hasonló lehetőségeit.
A háromdimenziós áramkörök építésének egyik megközelítése a „hagyományos” szilíciumnyomtatás felhasználása. A Matrix Semiconductor már jelenleg is forgalmaz olyan memóriachipeket, amelyekben nem egyetlen sík réteg van, hanem több, egymásra helyezett tranzisztorsík.{141} Mivel egyetlen háromdimenziós chip több memóriát tartalmaz, a teljes termékméret csökken, így a Matrix alapvetően a hordozható elektronikai eszközök piacát célozta meg, ahol a flashmemóriával (amit a mobiltelefonokban és a digitális kamerákban alkalmaznak, mivel kikapcsolás után sem vész el a tartalmuk) kíván versenyezni. A többrétegű áramköröknél az egy termékre eső előállítási költség is csökken. A Matrix egyik versenytársa, Maszuoka Fudzsio, a Toshiba egykori mérnöke, a flashmemória feltalálója más megközelítést alkalmaz. Maszuoka azt állítja, hogy az általa tervezett új memóriafelépítés, ami egy hengerre hasonlít, egytizedére csökkenti a memóriák méretét és előállítási költségét a lapos chipekhez képest.{142} A Renssealer Polytechnic Institute’s Center for Gigascale Integration és az MIT Media Lab már működő háromdimenziós szilíciumchip-prototípust is bemutatott.
A tokiói Nippon Telegraph and Telephone Corporation (NTT) drámai háromdimenziós technológiát mutatott be elektronsugaras litográfia alkalmazásával, mely révén tetszőleges háromdimenziós struktúrák állíthatók elő akár tíz nanométeres méretfelbontásban is.{143} Az NTT a bemutató során a Föld nagy felbontású modelljét hozta létre, hatvan mikron méretben, tíz nanométeres részletekkel. Az NTT állítása szerint a technológia alkalmas elektronikai alkatrészek, például félvezetők, illetve nanoméretű mechanikus rendszerek előállítására is.
Még mindig a nanocsövek a befutók. A The Age of Spiritual Machines (A spirituális gépek kora) című könyvemben a nanocsövekről – három dimenzióba rendezett, memóriabitek tárolására és logikai kapukként használt molekulákról – véltem azt, hogy el fognak vezetni a háromdimenziós molekuláris számítástechnika korába. Az először 1991-ben szintetizált nanocsövek hatszögletű hálóban összekapcsolódott és felhengerített szénatomokból állnak.{144} A nanocsövek nagyon kicsik: az egyrétegű falúak átmérője mindössze egy nanométer, így igen nagy lehet a sűrűségük.
Emellett potenciálisan nagyon gyorsak. A Kaliforniai Egyetemen Peter Burke és kollégái a közelmúltban 2,5 gigahertzen (GHz) működő, nanocsövek alkotta áramköröket mutattak be. Ugyanakkor a Nano Letters-ben, az Amerikai Vegyészeti Társaság preferált lapjában Burke azt írta, hogy ezeknek a nanocsőtranzisztoroknak az elméleti sebessége „egy terahertz (1 THz = 1000 GHz) lehet, ami körülbelül ezerszer nagyobb, mint a modern számítógépek sebessége.”{145} A technológia teljes beérése után egy köbcentiméternyi nanocsőáramkör tízmilliószor nagyobb teljesítményű lenne, mint az emberi agy.{146}
A nanocsőáramköröket sok vita övezte, amikor 1999-ben írtam róluk, ám az elmúlt hat év során drámai fejlődés történt a technológiában. 2001 két nagy lépést is hozott. A Science 2001. július 6-i számában beszámoltak egy mindössze 1×20 nanométer nagyságú nanocső alapú tranzisztorról, amely szobahőmérsékleten működött, és egyetlen elektront használt a ki- és bekapcsolásra.{147} Körülbelül ezzel egy időben az IBM bemutatott egy ezer nanocső alapú tranzisztort tartalmazó integrált áramkört.{148}
A közelmúltban láthattuk a nanocső alapú áramkörök első működő modelljeit. 2004 januárjában a Kaliforniai Egyetem és a Stanford Egyetem kutatói létrehoztak egy nanocsöveken alapuló integrált memóriaáramkört.{149} Ennek a technológiának az egyik nehézsége az, hogy egyes nanocsövek vezetők (azaz egyszerűen csak továbbítják az elektromosságot), míg mások félvezetőkként viselkednek (azaz képesek ki- és bekapcsolt állapotot felvenni, és így logikai kapukat alkotni). Ez a különbség nagyon finom szerkezeti eltéréseken múlik. Egészen a közelmúltig manuális beavatkozással kellett szétválogatni a két típust, ami nagyméretű áramkörök építése esetén nem lenne túl praktikus. A Berkeley és a Stanford tudósai azzal oldották meg a problémát, hogy kifejlesztettek egy teljesen automatizált eljárást a nem félvezető nanocsövek kiválogatására és elvetésére.
A nanocsövek elrendezése egy másik probléma az áramkörök felépítése során, mivel hajlamosak minden irányban növekedni. 2001-ben az IBM tudósai bemutatták, hogy a nanocső-tranzisztorok nagy mennyiségben is növeszthetők, hasonlóan a szilíciumtranzisztorokhoz. A „konstruktív rombolásnak” nevezett módszert alkalmazták, ami már az ostyán megsemmisíti a hibás nanocsöveket, elejét véve a kézi válogatásnak. Thomas Theis, az IBM Thomas J. Watson Kutatóközpontja fizika részlegének igazgatója akkor ezt mondta: „Hisszük, hogy az IBM ezzel fontos mérföldkövet ért el a molekuláris szintű chipek felé vezető úton… Ha sikerrel járunk, a szén nanocsövek lehetővé fogják tenni, hogy a sűrűség tekintetében korlátlan ideig fenntartsuk Moore törvényét, mivel nagyon kevés kétségem van afelől, hogy a nanocsőtranzisztorok bármilyen jövőbeni szilíciumtranzisztornál kisebbek lehetnek.”{150} 2003 májusában a Nantero, egy kis woburni (Massachussets állam) cég, melynek az egyik alapítója Thomas Rueckes, a Harvard Egyetem kutatója volt, egy lépéssel tovább vitte a folyamatot, amikor bemutatott egy 1 lapkát tartalmazó ostyát, rajta tízmilliárd, egytől egyig a megfelelő irányban álló nanocső-kereszteződéssel. A Nantero eljárása hagyományos litográfiai berendezésekkel, automatikusan távolítja el a nem megfelelő irányban álló nanocsöveket. Az, hogy a Nantero hagyományos berendezéseket használt, lázba hozta az ipari megfigyelőket, ez a technológia ugyanis nem igényelne költséges új gyártósorokat. A Nantero megoldása véletlen hozzáférést és tartósságot (az adatok nem vesznek el a kikapcsoláskor) biztosít, ami azt jelenti, hogy potenciálisan felválthatja az összes korábbi memóriafajtát: a RAM-ot, a flashmemóriát és a diszket.
Számítások molekulákkal. A nanocsövek mellett az elmúlt években komoly előrehaladás történt az egy vagy néhány molekulával végzett számítások terén is. A molekulákkal való számítás gondolatát az 1970-es évek elején vetette fel Avi Aviram az IBM-től és Mark A. Ratner a Northwestern University-től.{151} Akkoriban nem álltak rendelkezésünkre a szükséges technológiák, így az ötlet megvalósításához előrelépéseknek kellett történniük az elektronika, a fizika, a kémia és még a biológiai folyamatok visszafejtése terén is.
2002-ben a Wisconsini Egyetem és a Bázeli Egyetem tudósai létrehoztak egy „atomi memóriameghajtót”, amely atomokat használt egy merevlemez emulálására. Egy pásztázó alagútmikroszkóppal (STM) le lehetett választani egy szilíciumatomot egy húsz másikból álló tömbről, illetve hozzá lehetett adni ahhoz. A kutatók szerint ezzel az eljárással a rendszer több milliószor nagyobb adatmennyiség tárolására lehet képes, mint egy hasonló méretű diszk – az adatsűrűsége elérheti a 250 terabitet négyzethüvelykenként –, bár a bemutatón ezt csak néhány bittel szemléltették.{152}
A Peter Burke által a molekuláris áramkörök kapcsán megjósolt egy terahertzes sebesség egyre pontosabbnak tűnik, ha az Illinois-i Egyetem tudósai által létrehozott nanoméretű tranzisztort nézzük, amely 604 gigahertzes frekvencián (több mint fél terahertzen) működik.{153}
Az egyik molekula, amely a kutatók megállapítása szerint a számítás szempontjából kívánatos tulajdonságokkal rendelkezik, a „rotaxán”, amely az által képes átváltani az állapotait, hogy megváltoztatja a molekula belsejében lévő, gyűrűszerű struktúra energiaszintjét. A rotaxánmemóriát és elektronikus kapcsolóeszközöket már bemutatták, és potenciálisan száz gigabit (1011 bit) tárolására lehetnek alkalmasak négyzethüvelykenként. Ez a potenciál még nagyobb is lehet, ha három dimenzióba szervezik.
Önösszeszerelés. A nanoméretű áramkörök önösszeszerelése a hatékony nanoelektronika egy másik kulcsfontosságú előfeltétele. Az önösszeszerelés lehetővé teszi, hogy a nem megfelelően létrejött alkatrészek automatikusan elvetésre kerüljenek, és az áramköröket alkotó alkatrészek, melyek száma akár a billiót is elérheti, önmagukat szervezzék a kívánt rendbe, ne pedig egy felülről irányított, fáradságos folyamatra legyen szükség ehhez. Az UCLA tudósai szerint ez a technológia lehetővé tenné, hogy a nagyméretű áramköröket kémcsövekben hozzák létre, ne pedig több milliárd dollárba kerülő gyárakban; kémiai folyamatok révén, nem pedig litográfiával.{154} A Purdue Egyetem kutatói már bemutattak önszervező nanocsőstruktúrákat, melyek ugyanazt az elvet alkalmazzák, amely a DNS-szálakat arra készteti, hogy stabil helikális szerkezetté kapcsolódjanak össze.{155}
A Harvard Egyetem tudósai kulcsfontosságú lépést tettek meg 2004 júniusában, amikor bemutattak egy másik, nagyobb léptékben is használható önszervező módszert.{156} Az eljárás elején fotolitográfiai úton létrehozzák csatlakozások (a számítási elemek közötti kapcsolódási pontok) hálózatát, majd nagy számú, nanovezetékből készült térvezérlésű tranzisztort (egy gyakori tranzisztorfajta) és nanoméretű csatlakozást helyeznek el a hálózaton, amelyek aztán a megfelelő mintázatban összekapcsolódnak egymással.
2004-ben a Dél-Kaliforniai Egyetem és a NASA Ames Kutatóközpontja kutatói bemutattak egy módszert, melynek alkalmazásával rendkívül sűrű áramkörök szerveződnek egy oldatban.{157} Az eljárás során spontán módon nanovezetékek jönnek létre, majd három bit adat tárolására alkalmas nanoméretű memóriacellák szerelik össze magukat a vezetékeken. A technológia tárolókapacitása 258 gigabit négyzethüvelykenként (ami a kutatók szerint a tízszeresére növelhető), szemben a flashmemória-kártyák 6,5 gigabitjével. 2003-ban az IBM mutatott be olyan működő memóriaeszközt, melyben polimerek szerveződtek húsz nanométer széles, hatszögletű struktúrákba.{158}
Fontos megjegyezni, hogy a nanoáramkörök önmaguk konfigurálására is képesek lehetnek. Az áramköri elemek nagy száma és eredendő sérülékenysége (aminek a kis méret az oka) elkerülhetetlenné teszi, hogy az áramkör bizonyos részei helytelenül működjenek. Gazdasági szempontból célszerűtlen lenne egy teljes áramkört kidobni pusztán azért, mert egybillió tranzisztor közül néhány nem működik. A probléma megoldása abban rejlik, hogy a jövőbeni áramkörök folyamatosan figyelni fogják a saját teljesítményüket, és ugyanúgy a megbízhatatlan részeiket megkerülő útvonalakon fogják továbbítani az információt, mint ahogy az internet forgalma is kikerüli a nem működő csomópontokat. Az IBM különösen aktív ezen a kutatási területen, és már ki is fejlesztett olyan mikroprocesszorokat, melyek automatikusan diagnosztizálják a problémákat és ennek megfelelően újrakonfigurálják a chip erőforrásait.{159}
A biológia emulálása. Az önmagukat replikáló vagy önszervező elektronikus és mechanikus rendszerek építésének a gondolatát a biológia ihlette, ami pontosan ezeken a jellemzőkön alapul. Egy a Proceedings of the National Academy of Sciences lapjain megjelent kutatás leírta a prionokon, azaz önmagukat replikáló fehérjéken alapuló önreplikáló nanovezetékek létrehozásának módszerét. (Ahogyan arra a 4. fejezetben kitérek, úgy tűnik, az egyik prion szerepet játszik az emberi emlékezet működésében, egy másik formáját pedig a Creutzfeldt–Jakob-betegség, a kergemarhakór emberi megfelelője okozójának tartják.){160} A projekttel foglalkozó csoport fizikai stabilitásuk miatt használta modellnek a prionokat. Mivel azonban a prionok alapvetően nem vezetik az elektromosságot, a tudósok létrehoztak egy genetikailag módosított változatot, benne egy vékony aranyréteggel, ami alacsony ellenállású elektromos vezető. Susan Lindquist, az MIT biológiaprofesszora, a kutatás vezetője, a következő megjegyzést tette: „A nanoáramkörökkel foglalkozók többsége »fentről lefelé« próbálja létrehozni azokat. Mi arra gondoltunk, hogy megpróbálkozunk a »lentről felfelé« megközelítéssel, és hagyjuk, hogy a molekuláris önösszeszerelés végezze el helyettünk a munka oroszlánrészét.”
A legközismertebb önreplikáló molekula a biológiában természetesen a DNS. A Duke Egyetem kutatói „csempéknek” elnevezett molekuláris építőelemeket hoztak létre önösszeszerelő DNS-molekulákból.{161} A kereszt alakú csempékből létrejövő struktúrát is szabályozni tudták, „nanorácsokat” hozva létre belőlük. Ez az eljárás automatikusan fehérjemolekulákat csatol a nanorács minden egyes cellájába, melyeket aztán számítási műveletek elvégzésére lehet használni. Bemutattak egy kémiai folyamatot is, amely a DNS-nanoszalagokat ezüsttel bevonva elektromosan vezető nanovezetékeket hozott létre. A Science 2003. szeptember 26-i számában megjelent cikkhez fűzött megjegyzésében a kutatásokat vezető Hao Yan ezt mondta: „Évek óta kerestük, hogyan tudnánk felhasználni a DNS önösszeszerelő képességét arra, hogy sablonokat hozzunk létre fehérje- vagy egyéb molekulák számára, és most először sikerült ilyen tisztán demonstrálnunk ezt a lehetőséget.”{162}
Számítások a DNS-sel. A DNS a természet saját nanotervezésű számítógépe, és az információtárolásra, illetve a molekuláris szintű logikai műveletvégzésre való képességét már felhasználták speciális „DNS-számítógépekben”. A DNS-számítógép lényegében egy kémcső, tele vízzel, amiben több billió DNS-molekula van, és mindegyik molekula egy-egy számítógépként viselkedik.
A számítás célja az, hogy megoldjunk egy problémát, ahol a megoldást szimbólumok egy sorozatával fejezzük ki. (Például egy szimbólumsorozat jelölhet egy matematikai bizonyítást, de akár csak egy szám számjegyeit is.) A DNS-számítógép a következőképpen működik: létrehoznak egy kis DNS-szálat, egyedi kódot használva minden egyes szimbólumhoz. A „polimeráz láncreakció” (polymerase chain reaction, PCR) nevű folyamat révén mindegyik ilyen szál több billiószor lemásolódik. Ezután ezeket a DNS-termékeket beteszik egy kémcsőbe. Mivel a DNS-nek affinitása van arra, hogy összekapcsolja a szálakat, automatikusan hosszú szálak jönnek létre, melyek egyes szakaszai az egyes szimbólumoknak felelnek meg, s a létrejövő hosszú szálak mindegyike egy-egy lehetséges válasz a problémára. Mivel több billió ilyen szál jön létre, mindegyik lehetséges válaszra (azaz mindegyik lehetséges szimbólumsorozatra) több szál jut.
A folyamat következő lépése az, hogy egyszerre ellenőrzik az összes szálat. Ezt speciálisan tervezett enzimekkel végzik el, melyek elpusztítják azokat a szálakat, amelyek nem felelnek meg bizonyos kritériumoknak. Az enzimeket egymás után bocsátják a kémcsőbe, és a sorrend pontos megtervezése révén a folyamat végül kitörli az összes helytelen szálat, és csak azokat hagyja meg, amelyek a problémára adható helyes válasznak felelnek meg. (A folyamat pontosabb leírását lásd a 26. jegyzetben.{163})
A DNS-sel végzett számítás erejének kulcsa abban rejlik, hogy a több billió szál egy időben történő ellenőrzését teszi lehetővé. 2003-ban a Weizmann Intézet tudósai Ehud Shapiro vezetésével adenozin-trifoszfáttal (ATP), a biológiai rendszerek – mint az emberi test – természetes üzemanyagával kombináltak DNS-t.{164} Ezzel a módszerrel az összes DNS-molekula képes lett számítások elvégzésére és ellátta magát energiával. A Weizmann Intézet tudósai bemutattak egy konfigurációt, amely két kanálnyi folyékony szuperszámítógép-rendszerből állt, harmincmillió-milliárd molekuláris számítógépet tartalmazott, és másodpercenként 660 billió (6,6×1014) számítási művelet elvégzésére volt képes. Ezeknek a számítógépeknek rendkívül alacsony az energiafogyasztása, a harmincmillió-milliárd számítógép együttesen mindössze ötven mikrowattot használt fel.
Ugyanakkor a DNS-sel végzett számításnak is megvannak a korlátai: a sokbillió számítógép mindegyikének ugyanabban az időben ugyanazt a számítást kell elvégeznie (bár más adatokkal), tehát az eszköz egy „egy utasítás, több adat” (single instruction, multiple data, SIMD) architektúra. Noha léteznek fontos problémacsoportok, amelyek SIMD-rendszerekkel megoldhatók (például minden pixel feldolgozása egy kép javítása vagy tömörítése során, vagy a kombinatorikai-logikai feladatok megoldása), általános célú algoritmusokat nem lehet beléjük programozni, hogy minden egyes DNS-számítógép más feladatot vagy részfeladatot hajtson végre. (Megjegyzés: a Purdue Egyetem és a Duke Egyetem korábban említett kutatási projektjei, melyek önösszeszerelő DNS-szálakból hoznak létre háromdimenziós struktúrákat, mások, mint az itt bemutatott, DNS-sel végzett számítások. Azokban a kutatásokban benne rejlik a lehetőség, hogy tetszőleges, nem a SIMD-architektúrára korlátozott konfigurációkat is létrehozzanak.)
Számítások a spinnel. Az elektronoknak a negatív elektromos töltésükön kívül van még egy jellemzőjük, amit fel lehet használni memóriaként és számítások végzésére: a spin (melynek klasszikus fizikai analógiája a perdület). A kvantummechanika szerint az elektronok egy tengely körül forognak, mint ahogy a Föld forog a saját tengelye körül. Ez persze csak egy szemléletes kép, mivel az elektronok egyetlen pontot foglalnak el a térben, és nehéz elképzelni, hogy egy kiterjedés nélküli pont saját tengelye körül forogjon. Mindazonáltal amikor egy elektromos töltés mozgásba jön, valós és mérhető mágneses mezőt hoz létre. Egy elektron két irányban foroghat, ezek szokásos elnevezése „fel” és „le”, és ezt a tulajdonságot fel lehet használni logikai kapcsolóként, vagy 1 bit adat tárolására.
A spintronikában az az izgalmas, hogy nincs szükség energiára egy elektron spinállapotának a megváltoztatásához. Shoucheng Zhang, a Stanford Egyetem fizikaprofesszora, és Nagaosza Naoto, a Tokiói Egyetem fizikaprofesszora a következőképpen fogalmazta ezt meg: „Egy új »Ohm-törvény« [mely szerint egy vezetőben mérhető áramerősség a feszültség és a vezető ellenállásának a hányadosa] megfelelőjét fedeztük fel… [Ez az új törvény] kimondja, hogy az elektron spinje bármiféle energiaveszteség vagy szivárgás nélkül továbbítható. Emellett a jelenség szobahőmérsékleten, a félvezetőiparban már most széles körben használt anyagokban, például gallium-arzenidben is megfigyelhető. Ez azért fontos, mert lehetővé teheti a számítógépek egy új nemzedékének a létrehozását.”{165}
Ezek szerint lehetségessé válhat a szupravezetők hatékonyságának az elérése (azaz az információ fénysebességgel vagy közel fénysebességgel történő, veszteség nélküli továbbítása) szobahőmérsékleten. A módszer ugyanakkor az elektron egynél több jellemzőjét is felhasználja a számításhoz, s ezzel megnöveli a kapacitását a memória, illetve a számítási sűrűség tekintetében.
A spintronika egyik formája már ismert a számítógép-felhasználók körében: a mágneses merevlemezekben a magnetorezisztanciát (az elektromos ellenállás megváltozását külső mágneses tér hatására) használják fel az adatok tárolására. A nem felejtő memóriák egyik izgalmas, új formája az MRAM (magnetic random-access memory; mágneses, véletlen hozzáférésű memória) is a spintronikán alapul, és feltehetőleg néhány éven belül piacra is kerül. A merevlemezekhez hasonlóan az MRAM szintén megőrzi az adatokat kikapcsolás után is, ám nincsenek benne mozgó alkatrészek, a sebessége és az újraírhatósága pedig a hagyományos RAM-éhoz hasonlítható.
Az MRAM ferromágneses fémötvözetekben tárolja az információt, melyek adattárolásra alkalmasak, a mikroprocesszorok logikai műveleteinek végrehajtására azonban nem. A spintronika Szent Grálja a gyakorlati spintronikai hatások elérése a félvezetőkben, ami lehetővé tenné, hogy a technológiát memóriákban és logikai áramkörökben is alkalmazzuk. Ma a chipgyártás a szilíciumon alapul, ami azonban nem rendelkezik a szükséges mágneses tulajdonságokkal. 2004 márciusában egy nemzetközi kutatócsoport bejelentette, hogy szilícium és vas keverékéhez kobaltot adalékolva, az új anyag képesnek bizonyult felmutatni a spintronikához szükséges mágneses tulajdonságokat, miközben megtartotta a szilícium kristályszerkezetét is, ami szükséges a félvezetéshez.{166}
Nyilvánvaló, hogy a spintronika fontos szerepet fog játszani a számítógépek memóriájának a jövőjében, és valószínűleg a logikai rendszerekben is. Az elektron spinje kvantumtulajdonság (azaz a kvantummechanika törvényei vonatkoznak rá), így a spintronika legfontosabb alkalmazási területét talán a kvantumszámítógépek alkotják, melyek a kvantumállapotú elektronok spinjét felhasználva fogják ábrázolni a qubiteket (kvantumbiteket). Erről a későbbiekben írok.
A spint arra is felhasználták, hogy az atommagokban tároljanak információt, a protonok mágneses momentumának bonyolult kölcsönhatásait kiaknázva. Az Oklahomai Egyetem tudósai bemutattak egy „molekuláris fotográfia” eljárást is, mellyel 1024 bit adatot tároltak egyetlen, tizenkilenc hidrogénatomból álló folyadékkristály-molekulában.{167}
Számítások a fénnyel. A SIMD-számítások másik megközelítése az, hogy több lézersugarat használnak, egy-egy fotonnyalábban kódolva az információt. Ezután optikai elemekkel logikai és aritmetikai műveleteket lehet végrehajtani a kódolt információnyalábokon. Például egy kis izraeli cég, a Lenslet, kifejlesztett egy rendszert, amely 256 lézert használ, és másodpercenként nyolcbillió számítást képes elvégezni, ugyanazt a műveletet hajtva végre mind a 256 adatfolyamon.{168} A rendszer felhasználható például 256 videocsatorna párhuzamos adattömörítésére.
A SIMD-technológiáknak, mint például a DNS- és optikai számítógépeknek fontos, különleges szerepük lesz a számítástechnika jövőjében. Az emberi agy funkcionalitása bizonyos aspektusainak, például az érzékszervi adatok feldolgozásának lemásolása során felhasználhatjuk a SIMD-architektúrákat. Más agyi területekhez, például azokhoz, amelyek a tanulásért és az érvelésért felelősek, általános célú, „több utasítás, több adat” (multiple instruction multiple data, MIMD) architektúrákra lesz szükség. A nagy teljesítményű MIMD-számításokhoz a fentebb ismertetett háromdimenziós molekuláris számítógépeket kell majd alkalmaznunk.
Kvantumszámítások. A kvantum-számítástechnika a SIMD-architektúra párhuzamos működésének még radikálisabb formája, ám még fejlődése sokkal koraibb szakaszában jár, mint a többi tárgyalt technológia. A kvantumszámítógép egy sor qubitből áll, melyek lényegében egyszerre nullák és egyesek. A qubit a kvantummechanikában inherensen meglévő, alapvető határozatlanságon alapul. Egy kvantumszámítógépben a qubiteket részecskék kvantumtulajdonságai képviselik – például az egyes elektronok spinállapota. Amikor a qubitek „kevert” állapotban vannak, mindkét állapot egyszerre jellemzi őket. A „kvantumdekoherenciának” nevezett folyamat során minden egyes qubit határozatlansága eldől, és létrejön az egyesek és nullák határozott sorozata. Ha megfelelően állítják be a kvantumszámítógépet, a dekoherált sorozat fogja jelenteni a probléma megoldását. A dekoherencia folyamata után lényegében csak a helyes sorozat maradhat meg.
Ahogyan a fentebb tárgyalt DNS-számítógép esetében is, a sikeres kvantumszámítás kulcsa a probléma gondos megfogalmazása, és a lehetséges válaszok pontos ellenőrzése. A kvantumszámítógép gyakorlatilag a qubitek értékeinek minden lehetséges kombinációját ellenőrzi. Egy ezer qubitet tartalmazó kvantumszámítógép tehát 21000 (ez az érték megközelítőleg egy egyessel és utána 301 nullával írható le) lehetséges megoldást vizsgál egyszerre.
Egy ezerbites kvantumszámítógép teljesítménye nagyságrendekkel nagyobb lenne bármilyen elképzelhető DNS-számítógépénél, vagy ami azt illeti, bármilyen elképzelhető hagyományos (nem kvantum-) számítógépénél. A folyamatnak azonban van két korlátja. Az első az, hogy akárcsak a fentebb tárgyalt DNS- és optikai számítógépek esetében, a kvantumszámítógépek csak meghatározott típusú problémák megoldására alkalmazhatók. A feltétel: lényegében képesnek kell lennünk valamilyen egyszerű módszerrel megvizsgálni az összes lehetséges választ.
A kvantumszámítások gyakorlati alkalmazására a klasszikus példa a nagyon nagy számok faktoriális tényezőkre bontása (annak a megtalálása, hogy mely kisebb számokat kell összeszorozni a nagy szám eléréséhez). Az 512 bitnél nagyobb számok tényezőinek megkeresése jelenleg megoldhatatlan a digitális számítógépekkel, még az erősen párhuzamos működésűekkel sem.{169} A kvantumszámítógépekkel megoldható érdekes problémacsoportok közé tartozik a titkosítások feltörése (ami a nagy számok faktoriális tényezőkre bontásán alapul). A másik korlát az, hogy a kvantumszámítógépek számítási teljesítménye a kevert állapotú qubitek számától függ, és a legfejlettebb prototípusok is körülbelül tíz bittel tudnak dolgozni. Egy tízbites kvantumszámítógép pedig nem használható túl sok mindenre, hiszen 210 mindössze 1024. Egy hagyományos számítógépben egyszerű kombinálni a memóriabiteket és a logikai kapukat. Egy húszbites kvantumszámítógépet viszont nem lehet létrehozni pusztán két tízbites összekapcsolásával. A qubiteknek együtt kell kevert állapotban lenniük, ez a feladat pedig mindeddig megoldhatatlannak bizonyult.
A kulcskérdés az, milyen nehéz további qubitekkel bővíteni a rendszert. A kvantumszámítógép számítási teljesítménye exponenciálisan növekszik minden egyes hozzáadott qubittel, de ha az derül ki, hogy minden egyes qubit hozzáadása exponenciálisan nehezebbé teszi a mérnökök feladatát, akkor nem jutunk előre. (Azaz a kvantumszámítógép számítási teljesítménye csak egyenesen arányos lesz a tervezési nehézségekkel.) Általánosságban véve a további qubitek hozzáadására irányuló eddig felmerült módszerek jelentősen törékenyebbé tették a létrejövő rendszereket, és megnövelték az esélyét idő előtti dekoherenciájuknak.
Vannak ötletek a qubitek számának jelentős növelésére, bár a gyakorlatban még egyiket sem sikerült kivitelezni. Például Stephan Gulde és munkatársai az Innsbrucki Egyetemen egyetlen kalciumatom felhasználásával építettek egy kvantumszámítógépet, amely képes egyszerre több tucatnyi qubitet – talán százat is – kódolni, az atomon belüli különböző kvantumtulajdonságok felhasználásával.{170} A kvantum-számítástechnika végső szerepét továbbra is homály fedi. Ám még ha kivitelezhetőnek is bizonyul egy több száz kevert qubitet tartalmazó kvantumszámítógép megalkotása, speciális célokra alkalmazható eszköz marad, bár a maga nemében más módszerekkel el nem érhető számítási teljesítménnyel fog rendelkezni.
Amikor a The Age of Spiritual Machines (A spirituális gépek kora) című könyvemben felvetettem, hogy a molekuláris számítástechnika lesz a hatodik nagy számítástechnológiai paradigma, még sok vita övezte a gondolatot. Az elmúlt öt évben azonban olyan nagymértékű fejlődés történt, hogy a szakértők hozzáállása teljesen megváltozott, és most ez a mainstream álláspont. A háromdimenziós molekuláris számítástechnika összes előfeltétele túl van az elméletet igazoló vizsgálatokon: az egyetlen molekulából álló tranzisztorok, az atomokra épülő memóriacellák, a nanovezetékek, módszerek a több billió (és potenciálisan több billiószor billió) alkatrész önösszeszerelésére és öndiagnosztizálására.
A jelenlegi elektronikai gyártás menete az aprólékos chiptervezéstől a fotolitográfiát követően a chipek nagy, központosított gyárakban való előállításáig tart. A nanoáramköröket ezzel szemben valószínűleg kis kémcsövekben fogják előállítani, mely fejlemény újabb fontos lépés lesz az ipari infrastruktúra decentralizálásában, és fenn fogja tartani a gyorsuló megtérülések törvényét ebben a században és még tovább is.
Az emberi agy számítási teljesítménye
„Talán elsietettnek tűnik a teljes mértékben intelligens gépek néhány évtizeden belüli megjelenésére számítani most, amikor a számítógépek fél évszázados fejlődés után még egy rovar szellemi szintjét is alig érték el. Emiatt sok régi mesterségesintelligencia-kutató gúnyosan fogadja a felvetést, és inkább néhány évszázadot tart reálisnak. Ám több ok is amellett szól, hogy a dolgok sokkal gyorsabban fognak zajlani a következő ötven évben, mint az előzőben… Az 1990-es évek óta az egyedi MI és robotikai programok számára rendelkezésre álló számítási teljesítmény évről évre megduplázódott: 1994-ben 30 MIPS volt, 1998-ban pedig 500 MIPS. Hirtelen szárba szökkentek azok a magok, amelyeket régen terméketlennek hittek. A gépek szövegeket olvasnak, felismerik a beszédet, még egyik nyelvről a másikra is fordítanak. Robotok járják a vidéket, araszolnak a Marson és gurulnak az irodák folyosóin. 1996-ban az EQP nevű tételbizonyító program öt hétig futott az Argonne Nemzeti Laboratórium 50 MIPS-es számítógépén, és megtalálta Herbert Robbins egyik Boole-algebrai sejtésének a bizonyítását, amit hatvan éven át hiába kerestek a tudósok. És még csak tavasz van. Mi lesz itt nyáron?”
(Hans Moravec,
When Will Computer Hardware Match the Human Brain?
[Mikor fogja utolérni a számítógép hardvere az emberi agyat?], 1997)
Mekkora az emberi agy számítási teljesítménye? Sok, az emberi teljesítményszinten már visszafejtett (azaz működésükben megértett) agyterület működésének lemásolására alapozó becslés született már erre vonatkozóan. Ha rendelkezésünkre áll egy becslés egy adott terület számítási teljesítményét illetően, akkor ezt a teljesítményt extrapolálhatjuk az egész agyra, tekintetbe véve, hogy az agy melyik részét képviseli a szóban forgó terület. Ezek a becslések a funkciók szimulálásán alapulnak, azaz nem egy adott terület összes idegsejtjét és a közöttük fennálló kapcsolatokat próbálják újraalkotni, hanem a terület általában vett funkcióját másolják le.
Noha önmagukban az egyes számításokra nem támaszkodhatunk, azt láthatjuk, hogy a különböző agyterületekre vonatkozó becslések összességében meglehetősen jó közelítő eredményt adnak az egész agy viszonylatában. A következőkben nagyságrendi becsléseket ismertetek, azaz a helyes értékek tízes számrendszerbeli nagyságrendjét igyekszem meghatározni. Az, hogy a különböző módszerekkel elvégzett, ugyanarra a területre vonatkozó becslések hasonló válaszokat adnak, alátámasztja a megközelítés helyességét, és azt jelzi, hogy a becslések a valós tartományba esnek.
Az az előrejelzés, hogy a szingularitás – az emberi intelligencia több billiószorosára való növekedése a nem biológiai intelligenciával való egybeolvadásnak köszönhetően – a következő néhány évtizedben be fog következni, nem függ ezeknek a becsléseknek a pontosságától. Még ha túl optimista is a becslésünk arról, hogy mekkora számítási teljesítmény kell az emberi agy szimulálásához (azaz túl alacsonyra becsüljük ezt az értéket), még ha ezerszer nagyobb is a valódi érték (amit nem hiszek), ez is csak körülbelül nyolc évvel késleltetné a szingularitást.{171} Ha egymilliószor nagyobb a valódi érték, az körülbelül tizenöt évvel, ha pedig egymilliárdszor nagyobb, az körülbelül huszonegy évvel késleltetné a szingularitást.{172}
Hans Moravec, a Carnegie Mellon Egyetem legendás robotikusa elemezte a retinában lévő képfeldolgozó idegsejthálózat által végrehajtott transzformációkat.{173} A retina körülbelül két centiméter széles és fél milliméter vastag. A vastagságát kitevő idegsejtek nagy része a képek érzékelésével foglalkozik, az egyötödük azonban a képfeldolgozással, többek között a sötét és a világos területek megkülönböztetésével, illetve a mozgás érzékelésével a kép körülbelül egymillió kis részén.
Moravec elemzése szerint a retina másodpercenként tízmillió ilyen határvonal- és mozgásérzékelést végez el. A robotikus látórendszerekkel folytatott évtizedes kísérletei alapján úgy becsüli, hogy körülbelül száz számítógépes utasítást kell végrehajtani ahhoz, hogy az érzékelés az emberi szinten megtörténjen, ami azt jelenti, hogy a retina ezen része képfeldolgozó funkciójának a lemásolásához 1000 MIPS-re van szükség. Az emberi agy körülbelül 75 000-szer nehezebb, mint a retina ezen részében található 0,02 grammnyi idegsejt, s ez alapján az agy egészére vetítve a becslést, annak teljesítménye körülbelül 1014 (százbillió) utasítás másodpercenként.{174}
Egy másik becslés Lloyd Watts és munkatársai munkájából ered, akik az emberi hallórendszer régióinak funkcionális szimulációjával foglalkoztak, amiről a 4. fejezetben fogok részletesebben írni.{175} A Watts által kifejlesztett szoftver egyik funkciója az „adatfolyam-szétválasztás” nevű feladat volt, amit telekonferenciáknál és egyéb, a távjelenlét (egy telekonferencia résztvevőinek virtuális térbeli elhelyezése) megvalósításával kapcsolatos alkalmazásoknál használnak fel. Ennek eléréséhez, magyarázza Watts, „pontosan meg kell mérni két, egymástól térben bizonyos távolságra elhelyezkedő hangérzékelő között a jel időeltolódását”. A folyamat része a hangmagasság-elemzés, a térbeli pozicionálás és a beszédjellemzők érzékelése, ideértve a különböző nyelvek jellemzőit is. „Az egyik fontos jellemző, amit az emberek egy hangforrás helyének meghatározására használnak, az interaurális idődifferencia (Interaural Time Difference, ITD), vagyis az az időeltérés, amivel a hangok a két fülbe eljutnak.”{176}
Watts kutatócsoportja az érintett agyi területek visszafejtése révén létrehozta azok funkcionálisan ekvivalens másait. Becslése szerint másodpercenként 1011 utasítás szükséges az emberi hangforrás-lokalizálás eléréséhez. Az ezért a folyamatért felelős agykérgi területek legalább az agyi idegsejtek 0,1 százalékát teszik ki. Ezzel tehát ismét csak a hozzávetőleg 1014 (1011×103) utasítás per másodperchez jutunk el.
Egy másik becslés egy a Texasi Egyetemen elvégzett szimuláció alapján keletkezett, mely egy 104 idegsejtet tartalmazó kisagyi terület funkcionalitását másolta le. Ehhez 108 utasításra volt szükség másodpercenként, vagyis idegsejtenként körülbelül 104 utasításra. Ha ezt extrapoláljuk a becsült 1011 idegsejtekre, akkor hozzávetőlegesen másodpercenként 1015 utasítás végrehajtására van szükség a teljes agy esetében.
Az emberi agy visszafejtésének helyzetéről a későbbiekben fogok szólni, de az egyértelmű, hogy kisebb számítási kapacitással tudjuk lemásolni az egyes agyterületek funkcionalitását, mint ami ahhoz kell, hogy az egyes idegsejtek és az idegsejtek alkotóelemei (azaz az egyes idegsejteken belül zajló bonyolult kölcsönhatások) pontos nemlineáris működését szimuláljuk. Ugyanerre a következtetésre jutunk, amikor az egyes szervek funkcionalitását próbáljuk lemásolni. Például kísérleteznek olyan eszközökkel, amelyek az emberi hasnyálmirigy inzulinszint-szabályozó funkcióját szimulálják.{177} Ezek az eszközök megmérik a vér vércukorszintjét, majd ellenőrzött módon inzulint juttatnak a szervezetbe, hogy a megfelelő tartományban tartsák a vércukorszintet. Noha a biológiai hasnyálmirigyéhez hasonló módszert alkalmaznak, nem próbálják meg szimulálni az összes hasnyálmirigy-szigetsejt működését, és nincs is semmi ok rá, hogy ezt tegyék.
Ezek a becslések mind hasonló nagyságrendűek (másodpercenként 1014 utasítástól 1015-ig). Tekintettel arra, hogy az emberi agy visszafejtése még milyen korai szakaszában van, a továbbiakban a még konzervatívabb, másodpercenkénti 1016 utasítással fogok számolni.
A mintafelismerés, az intellektus és az érzelmi intelligencia emberi képességeinek újraalkotásához elégséges az agy funkcionális szimulációja. Másfelől viszont, ha digitalizálni akarnánk egy adott ember személyiségét (azaz meg szeretnénk ragadni az összes tudását, ismeretét és a személyiségét – erről a 4. fejezet végén fogok részletesen írni), akkor a neurális folyamatokat az egyedi idegsejtek és idegsejtrészek – úgymint a sejttest, az axonok (kimenő kapcsolatok), dendritek (bejövő kapcsolatok) és szinapszisok (az axonokat és dendriteket összekapcsoló területek) – szintjén kell vizsgálni. Ehhez meg kell néznünk az egyes neuronok részletes modelljeit. Az idegsejtek közötti kapcsolatok számát idegsejtekként 103-ra becsülik. A becsült 1011 neuronnal számolva ez körülbelül 1014 kapcsolatot jelent. Öt milliszekundumos kisülési idővel számolva körülbelül 1016 szinaptikus tranzakció történik másodpercenként.
A neuronmodell-szimulációk arra utalnak, hogy körülbelül 103 számításra van szükség szinaptikus tranzakciónként ahhoz, hogy megragadjuk a dendritek és egyéb idegsejtterületek nemlineáris működését (bonyolult kölcsönhatásait), azaz ezen a szinten körülbelül másodpercenként 1019 művelet végrehajtásával lehet szimulálni az emberi agy működését.{178} Ezt tekinthetjük a felső határnak, a 1014 és a 1016 művelet másodpercenként pedig valószínűleg elegendő lehet az összes agyi terület funkcionális megfelelőjének eléréséhez.
Az IBM jelenleg megépítés alatt álló, és körülbelül e könyv eredeti megjelenésével egy időben elkészülő Blue Gene/L szuperszámítógépe{6} a tervek szerint másodpercenként 360 billió (3,6×1014) számítást fog elvégezni.{179} Ez a szám már most nagyobb, mint a fentebb ismertetett alacsonyabb becslés. A Blue Gene/L-nek azonban lesz még körülbelül száz terabyte (körülbelül 1015 bit) tárolókapacitása is, ami több, mint amennyi memória a becsléseink szerint az emberi agy funkcionális emulálásához szükséges (lásd lentebb). Korábbi előrejelzéseimmel összhangban, a szuperszámítógépek a következő évtized elején el fogják érni az emberi agy funkcionális emulálásához szükséges másodpercenkénti 1016számítási teljesítményt, azaz a konzervatívabb becslésünket (lásd a Növekedés a szuperszámítógépek teljesítményében című fejezetben).
Az emberi szintű számítási kapacitás elérését célzó folyamatok felgyorsítása a személyi számítógépek terén. A mai személyi számítógépek számítási kapacitása meghaladja a másodpercenkénti 109 utasítást. Az előző fejezetben található, A számítási kapacitás exponenciális növekedése a XX. és a XXI. században című ábra előrejelzése szerint 2025-re elérjük a másodpercenkénti 1016 utasítást. Ugyanakkor ez az ütem sok módon gyorsítható. Az általános célú processzorok helyett használhatunk alkalmazásspecifikus integrált áramköröket (application specific integrated circuits, ASIC), amelyekkel az ismétlődő számítások esetében jobb ár–teljesítmény-arány érhető el. Az ilyen áramkörök már ma rendkívül magas számítási teljesítményt nyújtanak a számítógépes játékok mozgóképeinek előállítása során alkalmazott ismétlődő számítások területén. Az ASIC-ek ezerszeresére javíthatják az ár–teljesítmény-arányt, körülbelül nyolc évvel előrébb hozva a korábban említett 2025-ös dátumot. A különböző részprogramok, melyekből az emberi agy szimulációja összeáll, szintén sok ismétlődő számítást fognak végrehajtani, s így alkalmasak lesznek az ASIC-eken való feldolgozásra. A kisagyban például ugyanaz az alapvető mintázat ismétlődik több milliárdszor.
Azzal is növelhetjük majd a személyi számítógépek teljesítményét, hogy felhasználjuk az internetre csatlakozó eszközök kihasználatlan számítási kapacitását. Az új kommunikációs paradigmák, mint a „mesh” hálózati számítások, minden hálózatra csatlakoztatott eszközt csomópontként kezelnek, nem pusztán „végpontként”.{180} Más szóval, ahelyett, hogy az eszközök (például a személyi számítógépek és a PDA-k) pusztán információt küldenének a csomópontoknak és információt fogadnának azoktól, önmagukban is csomópontokként működnének, és minden más eszközzel információcserét folytatnának. Ezáltal egy nagyon robusztus, önszervező kommunikációs hálózat jönne létre. A számítógépek és a többi eszközök így könnyebben megcsapolhatnák a mesh rájuk eső régiójában lévő eszközök kihasználatlan CPU-ciklusait.
Jelenleg az internetre csatlakozó számítógépek teljes számítási kapacitásának a 99 százaléka, ha nem a 99,9 százaléka kihasználatlanul hever. Ha hatékonyan ki tudnánk használni ezt a kapacitást, azzal még százszorosára vagy ezerszeresére javíthatnánk az ár–teljesítmény-arányt. Ennélfogva nem alaptalan arra számítani, hogy az emberi agy számítási teljesítménye, legalábbis a hardver számítási teljesítménye viszonylatában, 2020 körül ezer dollárból előállítható lesz.
Az emberi szintű számítási teljesítmény elérése a személyi számítógépeknél azzal is tovább gyorsítható, ha a tranzisztorokat eredeti „analóg” üzemmódjukban használjuk. Az emberi agyban számos folyamat nem digitális, hanem analóg. Noha a digitális számítógépekkel bármilyen kívánt pontossággal tudunk emulálni analóg folyamatokat, közben több nagyságrendnyi hatékonyságot veszítünk. Egy tranzisztor képes összeszorozni két, analóg szintekkel reprezentált értéket; ha digitális áramkörökkel akarjuk elvégezni ugyanezt a műveletet, ahhoz több ezer tranzisztor kell. Ennek a koncepciónak egyik úttörője Carver Mead a Kaliforniai Műszaki Egyetemen.{181} Mead megközelítésének az egyik hátránya az, hogy egy ilyen natív analóg számítási rendszer megtervezése sokkal hosszadalmasabb, így az agy egyes régióit emuláló szoftvereket fejlesztő kutatók többsége általában a gyorsan módosítható szoftveres szimulációkat részesíti előnyben.
Az emberi memóriakapacitás. Hogyan hasonlítható össze a számítási teljesítmény az emberi memóriakapacitással? Látni fogjuk, hogy az emberi memóriakövetelményeket vizsgálva is hasonló időtartamot előrejelző becsléseket kapunk. Az egy szakértő által egy adott területen elsajátított „tudásdarabok” száma több terület esetében is hozzávetőlegesen 105. Ezek a darabok lehetnek mintázatok (például arcok), illetve konkrét ismeretek. Például a világ legjobb sakkmestereiről úgy tartják, hogy körülbelül 100 000 felállást ismernek. Shakespeare 29 000 szót használt a műveiben, de közel 100 000 különböző értelemben. Az orvosi szakértői rendszerek fejlesztése arra utal, hogy az emberek körülbelül 100 000 fogalmat tudnak elsajátítani egy területen. Ha úgy becsüljük, hogy ez a „szakmai” tudás csak 1 százalékát jelenti egy ember teljes mintázat- és ismerettárának, akkor összesen 107 tudásdarabbal kell számolnunk.
A saját tapasztalataim alapján, amelyeket olyan rendszerek tervezése során szereztem, melyek hasonló tudásdarabokat tárolnak (vagy szabályalapú szakértői rendszerekben, vagy önszervező mintázatfelismerő rendszerekben), a darabonkénti (mintázatonkénti vagy tudáselemenkénti) 106 bit megalapozott becslésnek tűnik, és ennek alapján az ember funkcionális memóriájának a teljes kapacitása körülbelül 1013 (tízbillió) bit lehet.
Az ITRS ütemterve szerint (lásd a RAM-ábrát az előző fejezetben) 2018 körül ezer dollárért fogunk tudni megvenni 1013 bit memóriát. Ne feledjük, hogy ez a memória az emberi agyban zajló elektrokémiai folyamatoknál több milliószor gyorsabb, és így sokkal hatékonyabb lesz!
Ha az emberi memóriát az egyes idegsejtkapcsolatok szintjén modellezzük, ismét csak magasabb értékű becslést kapunk. A kapcsolódási mintázatok és a neurotranszmitter anyagkoncentrációk tárolására kapcsolatonként körülbelül 104 bitet becsülhetünk. Ha a kapcsolatok számát 1014-re becsüljük, akkor az eredmény 1018 (egymilliárdszor egymilliárd) bit.
A fenti elemzések alapján joggal feltételezhetjük, hogy 2020 körül elérhetővé válik, méghozzá körülbelül ezerdolláros áron az a hardver, amely képes emulálni az emberi agy funkcionalitását. Ahogyan arra a 4. fejezetben kitérünk, a funkcionalitást lemásoló szoftverre további egy évtizedet kell majd várni. Mindazonáltal a hardver ár–teljesítmény-arányának, teljesítményének és sebességének az exponenciális javulása ez alatt az idő alatt is folytatódni fog, tehát 2030 körül már egy falunyi (körülbelül ezer) emberi agy kell majd ahhoz, hogy felérjen ezerdollárnyi számítógéppel. 2050-re egy ezer dollárt érő számítógép számítási teljesítménye meg fogja haladni a Földön található összes emberi agyét. Ez persze csak azokra az agyakra vonatkozik, amelyek még csak biológiai idegsejteket használnak.
Noha az emberi idegsejtek csodálatos szerkezetek, számítógép-áramköröket nem szeretnénk (és nem fogunk) ugyanazokra a lassú módszerekre alapozva tervezni. A természetes kiválasztódás során kialakult rendszerek minden zsenialitásuk ellenére több nagyságrenddel alulmaradnak azokkal szemben, amelyeket mi magunk meg tudunk tervezni. Ahogy visszafejtjük testünket és agyunkat, abba a helyzetbe kerülünk, hogy a természetes módon kialakult rendszereinknél sokkal tartósabb, ezerszer, milliószor gyorsabban működő hasonló rendszereket hozzunk létre. Az elektronikai áramköreink már most több mint egymilliószor gyorsabbak, mint az idegsejtek közötti elektrokémiai folyamatok, és ez a sebesség csak nőni fog.
Az emberi idegsejtek összetettségének nagy része a létfenntartó funkciók biztosítására szolgál, nem pedig az információfeldolgozó képességekére. Egyszer majd képesek leszünk áthelyezni a tudati folyamatainkat egy alkalmasabb számítási közegbe. És akkor a tudatunknak nem kell majd ilyen kicsinek maradnia.
A számítógép-használat korlátai
„Ha egy nagyon hatékony szuperszámítógép egész nap egy időjárás-szimulációs probléma kiszámításán dolgozik, a fizika törvényei szerint mennyi az a minimális mennyiségű energia, ami kárba vész? A választ igazából nagyon könnyű kiszámolni, mivel semmi köze nincs a számítások mennyiségéhez. A válasz ugyanis mindig nulla.”
(Edward Fredkin, fizikus{182})
Már volt öt paradigmánk (az elektromechanikus számológépek, a reléalapú számítógépek, az elektroncsövek, a diszkrét tranzisztorok és az integrált áramkörök), amelyeknek köszönhetően a számítókapacitás és annak ár–teljesítmény-aránya is exponenciálisan növekedhetett. Mindahányszor az egyik paradigma elérte a határait, a következő lépett a helyébe. Már látjuk a hatodik paradigma körvonalait, ami elviszi a számítástechnikát a háromdimenziós molekuláris tartományba. Mivel a számítástechnika lassan mindent meghatároz, ami fontos nekünk, a gazdaságtól az emberi intellektusig és kreativitásig, joggal merül fel a kérdés: vannak az anyag és az energia számítási lehetőségeinek végső határai? Ha igen, mik ezek a határok, és mikor fogjuk elérni őket?
Az emberi intelligencia olyan számítási folyamatokon alapul, amelyeket egyre jobban kezdünk megérteni. Végül az emberi intelligencia módszereit alkalmazva és kiterjesztve, a nem biológiai alapú számítás sokkal nagyobb teljesítményét kihasználva meg fogjuk sokszorozni intellektuális képességeinket. A számítástechnika végső határaira rákérdezni tehát annyi, mint azt a kérdést feltenni, hogy mi a sorsa a civilizációnknak.
Az ebben a könyvben bemutatott elméletekkel szemben gyakran hozzák fel azt az ellenvetést, hogy ezek az exponenciális trendek előbb-utóbb el kell, hogy érjék a határukat, ahogy az általában az exponenciális trendekkel történni szokott. Amikor egy faj új élőhelyre kerül, amire a híres példa az üregi nyulak Ausztráliába telepítése, az egyedszáma egy ideig exponenciálisan nő, ám végül eléri a környezet teherbíró képességének a határát. Bizonyára az információfeldolgozásnak is vannak hasonló határai. Valóban, a számítási teljesítménynek is határt szabnak a fizikai törvények, de addig még lehetővé teszik az exponenciális növekedés folytatódását, amíg a nem biológiai intelligencia billiószor billiószor erősebbé válik a mai teljes emberi civilizációnál, a jelenlegi számítógépeket is beleértve.
A számítási teljesítmény határainak mérlegelésénél fontos tényező az energiafelhasználás. Az egy MIPS-re vetített energiafogyasztás exponenciális ütemben csökken, ahogyan az a következő ábrán is látható.{183}