Egy ilyen nanotervezett rendszerrel a javasolt adatsugárzó architektúra képessé tenne minket arra, hogy leállítsuk a nem kívánt sokszorosítást, azaz le tudnánk győzni a rákot, az autoimmun-reakciókat, és egyéb kóros folyamatokat. Bár a legtöbb kóros folyamatot addigra már le fogják győzni az előző fejezetekben taglalt biotechnológiai módszerekkel, az élet számítógépének nanotechnológiás újratervezésével eltávolíthatunk minden fennmaradt akadályt, és olyan tartós, rugalmas életformát hozhatunk létre, mely messze meghaladja a biológiában rejlő lehetőségeket.
A robotkarhegy a riboszómák képességeit alkalmazva, enzimszerű reakciók segítségével választaná le az egyes, specifikus tRNS-hez kötött aminosavakat, és peptidkötéssel kapcsolná őket a szomszédos aminosavakhoz. A rendszer így a riboszómák szakaszait is hasznosíthatná, mivel ez a biológiai gépezet képes lenne létrehozni a megfelelő aminosavszálakat.
A molekuláris gyártás célja azonban nem csak a biológia molekuláris konstrukciós képességeinek leutánzása. A biológiai rendszerek korlátozottak, csak fehérjéből építkeznek, és ez gyorsaság és erő szempontjából is súlyos megkötöttség. Bár a biológiai fehérjék háromdimenziósak, a biológia a vegyületek egydimenziós aminosavakból hajtogatható osztályára korlátozódik. A gyémánt fogaskerekekből és rotorokból épült nanobotok több ezerszer gyorsabbak és erősebbek lehetnek a biológiai sejteknél.
Az összehasonlítás a számítások terén még drámaibb eredményekkel jár: egy nanocsőalapú számítás kapcsolósebessége több milliószor gyorsabb lehet, mint az emlősök idegsejtközi szinapszisaiban megvalósuló meglehetősen lassú elektrokémiai kapcsolatok.
A fentebb leírt gyémántszerű anyagból felépülő összeállító koncepciója konzisztens alapanyag(építő- és üzemanyag)-bevitellel dolgozik, és ez is a számos védelmi mechanizmus egyike, amely a robotok irányítatlan, molekuláris szintű sokszorosítása ellen védene a külvilágban. A biológia sokszorosító robotja, a riboszóma éppúgy gondosan ellenőrzött forrás- és üzemanyagkészlettel dolgozik, melyeket az emésztőrendszerből nyer. Ahogy a nanoalapú sokszorosítók egyre összetettebbek, és egyre jobban ki tudják vonni a szénatomokat és a szénalapú molekulákat a kevésbé jól irányított forrásanyagokból, és képessé válnak az ellenőrzött laborkörnyezeten kívül is működni, igen nagy veszélyt jelenthetnek a világ számára. Ez különösen azért igaz, mert a nanoalapú sokszorosítók nagyságrendekkel gyorsabbak és erősebbek bármely biológiai rendszernél. Ez a képesség természetesen számos vita alapját képezi, erről a 8. fejezetben bővebben értekezek.
A Drexler-féle Nanorendszerek megjelenése óta eltelt évtizedben Drexler konceptuális terveinek minden aspektusát további tervjavaslatok erősítették meg.{415} A Bostoni Főiskola kémiaprofesszora, T. Ross Kelly beszámolt egy hetvennyolc atomból készült, vegyi meghajtású nanomotor megépítéséről.{416} Carlo Montemagno vezetésével egy biomolekuláris kutatócsoport létrehozott egy ATP-üzemanyagú nanomotort.{417} Egy másik molekuláris méretű, napenergiával működő motort Ben Feringa hozott létre ötvennyolc atomból a Groningeni Egyetemen, Hollandiában.{418} Hasonló előrelépések történtek a molekuláris méretű mechanikus alkatrészek, fogaskerekek, rotorok és emelők előállításában is. A kémiai és akusztikus energiák felhasználását bemutató rendszerek (Drexler eredeti leírásának megfelelően) szintén megtervezésre, szimulálásra és megépítésre kerültek. Jelentős haladás történt a különféle elektronikai alkatrésztípusok molekuláris méretű szerkezetekből való fejlesztésében is, különösen a Richard Smalley úttörő fejlesztései, a szén nanocsövek területén.
A nanocsövek igen sokoldalú szerkezeti összetevőnek bizonyultak. A Lawrence Berkeley Nemzeti Laboratórium tudósai nemrégiben nanocsövekből készült futószalagot mutattak be.{419} A nanoméretű futószalag segítségével parányi indiumrészecskéket szállítottak egyik helyről a másikra, bár e technika átalakításával akár molekulaméretű tárgyak is mozgathatók. A készülék elektromos áramát irányítva befolyásolható a mozgás iránya és sebessége. „Olyan, mintha gombnyomással tudnánk irányítani a nanoméreten zajló tömegszállítást” – mondta Chris Regan, a tervezők egyike. „Az a képesség, hogy gyorsan és pontosan el tudjuk juttatni a molekulaméretű építőanyagokat, kulcsfontosságú a molekuláris összeállítók felépítésében.”
A General Dynamics által a NASA számára elvégzett kutatás igazolta a nanoméretű, önsokszorosító gépek megvalósíthatóságát.{420} A kutatók számítógépes szimulációk segítségével bebizonyították, hogy a kinematikus sejtautomata névre hallgató, újrakonfigurálható molekuláris modulokból épített, molekuláris pontossággal felépülő robotok képesek önmaguk sokszorosítására. Ez a terv is adatsugárzó architektúrát használt, ami az önsokszorosítás ezen biztonságosabb módjának megvalósíthatóságát is megmutatta.
A DNS legalább olyan sokoldalúnak bizonyul a molekuláris szerkezetek építésében, mint a nanocsövek. A DNS azon tulajdonsága, hogy könnyen összekapcsolódik saját magával, igen hasznos szerkezeti elem. A jövő tervezői talán képesek lesznek felhasználni ezt a tulajdonságot, akárcsak az információtárolást. A nanocsövek és a DNS egyaránt kiemelkedően jó információtárolási és logikai irányítóképességekkel bírnak, és erős, háromdimenziós szerkezeteket képesek építeni.
A müncheni Ludwig Maximilian Egyetem egy kutatócsoportja olyan „DNS-kezet” épített, amely képes kiválasztani egy adott fehérjét a többi közül, kötést létrehozni vele, majd parancsra eloldani.{421} Shiping Liao és Nadrian Seeman legújabb nanotechnológiai kutatásai fontos lépéseket tettek egy a riboszómához hasonló DNS-összeállító mechanizmus létrehozásában.{422} A molekuláris tárgyak irányított megragadása és elengedése újabb olyan tulajdonság, ami igen fontos a molekuláris nanotechnológiai összeállítás során.
A Scripps Kutatóintézet tudósai demonstrálták, hogy képesek DNS-blokkokat létrehozni. Több példányban elkészítettek egy 1669 nukleotidból álló DNS-szálat, bennük gondosan meghatározott helyzetű, egymást kiegészítő régiókkal.{423} A szálak spontán merev oktaéderekké álltak össze, melyek háromdimenziós szerkezetek építőelemeiként szolgálhatnak. A folyamat egy másik lehetséges alkalmazásában az oktaéderek fehérjeszállító kapszulaként működnének, ezt az elképzelést Gerald F. Joyce, a Scripps egyik kutatója „fordított vírusként” írta le. A vírusok – melyek szintén önösszeállító szerkezetek – rendszerint fehérjéből álló külső héjjal rendelkeznek, a DNS (vagy RNS) ezen a héjon belül helyezkedik el. „Az általunk megvalósított új módszerrel – hívja fel rá Joyce a figyelmet – elméletileg megoldható, hogy a DNS legyen kívül, és a fehérjék belül”.
A DNS-ből épített nanoméretű szerkezetek különösen lenyűgöző példája az a parányi kétlábú robot, amely mindössze tíz nanométer hosszú lábakon jár.{424} Mind a lábakat, mind a pályát DNS-ből építették – újfent azért erre esett a választás, mert a molekula képes irányított módon kémiai kötéseket kialakítani, illetve felbontani. A nanorobot a New York-i Egyetem két kutatója, Nadrian Seeman és William Sherman projektje, és úgy mozog, hogy eloldja a lábát a pályáról, előrelép, majd visszaköti a lábát a pályára. Ez a projekt is hatásosan demonstrálja, hogy a nanoméretű gépezetek képesek precíz manőverek elvégzésére.
A nanobotok tervezésének alternatív módszere az, ha a természettől tanulunk. Michael Simpson, az Oak Ridge Nemzeti Laboratórium nanotechnológusa azt a lehetőséget vizsgálja, hogy baktériumokat használjunk fel „készen kapott gépezetekként”. A baktériumok természetes nanobot méretű objektumok, és képesek a mozgásra, az úszásra és a folyadékok pumpálására.{425} Linda Turner, a harvardi Rowland Intézet kutatója a baktériumok különféle feladatok elvégzésére alkalmas vékony karjaira (az ún. fimbriákra) fókuszál: a baktériumok a karok segítségével szállítanak más nanoméretű tárgyakat, és keverik össze a folyadékokat. Egy másik megközelítésben a baktériumoknak csak részeit használnák fel. A Washingtoni Egyetem Viola Vogel vezette kutatócsoportja olyan rendszert épített fel az E. coli baktériumnak csak a csillóit felhasználva, amely képes volt szétválogatni különböző méretű nanogyöngyöket. Minthogy a baktériumok eleve számos eltérő funkciót ellátni képes nanoméretű rendszerek, ezen kutatás végső célja nem más, mint a baktériumok működésének visszafejtése, hogy az onnan ellesett tervezési elveket felhasználhassuk a saját nanobotterveinkben is.
A vastag és a ragadós ujjak
Miközben a jövő nanotechnológiai rendszereinek minden oldala igen gyors ütemben fejlődik, még mindig nem találtak igazán komoly hibát Drexler nano-összeállító koncepciójában. 2001-ben nagy publicitást kapott ugyan a Nobel-díjas Richard Smalley a Scientific Americanben megjelent ellenvetése, de az Drexler javaslatainak egy torz leírásán alapult{426}, és nem foglalkozott az azt megelőző évtized igen kiterjedt munkásságával sem. A szén nanocsövek úttörőjeként Smalley roppant lelkesen fordult a nanotechnológia számos alkalmazása felé, úgy írta, „a válasz a nanotechnológiában rejlik, már amennyire választ lehet adni az energia, egészségügy, kommunikáció, közlekedés, élelem és víz terén felmerülő legtöbb súlyos anyagi szükségletünkre”, de továbbra is szkeptikus a molekuláris nanotechnológiai összeállítók kapcsán.
Smalley leírása szerint Drexler összeállítójának öt-tíz „ujja” (manipulátorakarja) lesz, ezekkel ragadja meg, mozgatja és teszi a helyére az építés alatt lévő gépezet egyes atomjait. A leírás után felhívja rá a figyelmet, hogy a molekuláris összeállító nanorobot számára elérhető szűkös helyen ennyi ujj egyszerűen nem férhet el (ezt hívja a „vastag ujjak” problémájának), és hogy az ujjak a molekuláris vonzó kölcsönhatások miatt engednék el atomterhüket (ez a „ragadós ujjak” problémája). Arra is kitér, hogy egy tipikus kémiai reakció általában öt-tizenöt atom „bonyolult, háromdimenziós keringője”.
Valójában azonban Drexler felvetése egyáltalán nem is hasonlít a Smalley által eltorzított elméletre. Drexler és legtöbb követője mindössze egyetlen „ujj” használatát feltételezi. Továbbá igen széles körű leírások és elemzések készültek az elképzelhető szerszámhegy-vegyületekről, és egyikben sem szerepel, hogy úgy fognák meg és tennék a helyükre az atomokat, mintha azok mechanikus tárgyak lennének. A fentebb már említett példák mellett (mint például a DNS-kéz) az azóta eltelt évek során széles körben megerősítést nyert, hogy a hidrogénatomok mozgatása Drexler „propinil hidrogénabsztrakciós” hegyének felhasználásával megvalósítható.{427} Az 1981-ben az IBM által kifejlesztett pásztázószondás mikroszkóp (SPM, scanning probe microscope) és a még összetettebb atomerő mikroszkóp (AFM) tűhegy és az adott molekuláris struktúra meghatározott reakciói segítségével képes elhelyezni akár egyes atomokat is, és ez is tovább igazolja az alapkoncepciót. Nemrégiben az Oszakai Egyetem tudósai egy atomerő mikroszkóp segítségével több egyéni, nemvezető atomot mozgattak elektromos helyett mechanikus módszerrel.{428} A jövő molekuláris nanotechnológiájának elektromosan vezető és nemvezető atomokat és molekulákat is tudnia kell mozgatni.{429}
Valójában, ha Smalley kritikája igaz lenne, nem is tudnánk vitába szállni vele, mert maga az élet nem alakulhatott volna ki, hiszen a biológia összeállítója pontosan azt csinálja, ami Smalley állítása szerint lehetetlen.
Smalley azzal az ellenvetéssel is előállt, hogy bármilyen „elszántan dolgozna [a nanobot]… még egy termék parányi részének előállítása is… több millió évbe telne”. Smalley-nek abban természetesen igaza van, hogy egyetlenegy nanobot nem hozna létre értékelhető mennyiségű terméket. De a nanotechnológia alapkoncepciója épp az, hogy több billió nanobot felhasználásával remélünk értelmezhető eredményeket elérni, és épp ez az, amiért olyan nagy figyelem irányul a technológia biztonsági aspektusaira. Ahhoz, hogy ennyi nanobotot ésszerű költségek mellett előállíthassunk, valamilyen szintű önsokszorosító képességgel kell bírniuk, és bár ez megoldaná a gazdasági kérdést, igen súlyos lehetséges veszélyforrásként merül fel. Erre a kockázatra a 8. fejezetben bővebben kitérek. A biológia ugyanezt a megoldást használja fel a több billió sejtből álló szervezetek megalkotásánál, és az az igazság, hogy szinte minden kór a biológia önsokszorosító folyamatának meghibásodásából ered.
A nanotechnológia mögött húzódó koncepcióval szembeni korábbi ellenvetéseket is hatékonyan megválaszolták. A kritikusok felvetették: a nanobotok nem kerülhetnék el, hogy hőmozgásuk miatt komoly ütéseket kapjanak az atommagoktól, atomoktól és molekuláktól. Ez az egyik oka annak, hogy a nanotechnológia konceptuális tervezői hangsúlyozottan gyémántszerű anyagból vagy szén nanocsövekből építenének szerkezeti elemeket. A rendszer erejének vagy merevségének növelésével az anyag kevésbé volna kitéve a hőmozgás destruktív hatásának. A tervek elemzése azt mutatta, hogy ezek a megoldások több ezerszer ellenállóbbak a hőmozgás hatásaival szemben, mint a biológiai rendszerek, így jóval tágabb hőmérsékleti tartományban maradnak működőképesek.{430}
Hasonló ellenvetések érkeztek a nanotervezett szerkezetek szélsőségesen kis mérete miatt a kvantumhatások pozicionális bizonytalanságát illetően. A kvantumhatások igen számottevőek egy elektron esetében, de egy szénatommag már önmagában több mint húszezerszer nagyobb tömegű, mint egy elektron. Egy nanobotot több milliótól több milliárdig terjedő számú szén- és egyéb atom építene fel, azaz akár billiónyiszor nagyobb tömegű lenne egy elektronnál. Ha ezt az arányt vesszük alapul a kvantumos pozicionálás bizonytalanságának kiszámolásánál, a hatás elenyészőnek bizonyul.{431}
Az üzemanyag is komoly kérdéseket vetett fel. A glükóz-oxigén üzemanyagsejtekkel dolgozó felvetések jól szerepeltek a Freitas és mások által végzett megvalósíthatósági tanulmányok során.{432} A glükóz-oxigén megközelítés nagy előnye, hogy a nanogyógyászati alkalmazások felhasználhatják az emberi emésztőrendszer által amúgy is termelt glükózt, oxigént és ATP-t. Nemrég előállítottak egy nikkelpropellert használó, ATP-alapú enzimekkel hajtott nanoméretű motort.{433}
A legújabb fejlemények a mikro-elektromechanikus rendszerek méretében, vagy akár nanoméretben alkalmazható hidrogén-oxigén üzemanyagcellák terén alternatív megközelítést jelenthetnek; erre a későbbiekben még kitérek.
A vita fokozódik
2003-ban Drexler nyílt levélben válaszolt Smalley-nak a Scientific Americanben publikált cikkére.{434} Húsz év kutatási eredményeit – a sajátjait és másokéit – sorolta fel, és kifejezetten az utóbbi által felvetett „vastag ujjak” és „ragadós ujjak” problémákat célozta meg. Mint fentebb már említettem, a molekuláris összeállítókat sosem írták le úgy, mintha ujjaik lennének, hanem mindig is inkább a reaktív molekulák precíz pozicionálásáról volt szó. Drexler a biológiai enzimeket és a riboszómákat hozta fel példaként a természet világában előforduló precíz molekuláris összeállításra. Drexler Smalley saját megállapítását idézve zárta levelét: „Ha egy tudós azt állítja valamiről, hogy lehetséges, talán alábecsüli, mennyi ideig tart majd megvalósítani. Ha azt állítja, hogy valami lehetetlen, akkor nagy valószínűséggel téved.”{10}
A vita még három kört látott 2003-ban. Smalley Drexler nyílt levelére válaszul visszavonta az általa a „vastag és ragadós ujjak” problémái kapcsán írtakat, és elismerte, hogy az enzimek és a riboszómák valóban épp azt a precíz molekuláris összeállítást végzik, amit ő korábban lehetetlenként írt le. Ezek után felvetette, hogy a biológiai enzimek csak vízben működnek, és hogy az efféle vízalapú kémia az olyan biológiai szerkezetekre korlátozódik, mint „a fa, a hús vagy a csont”. Mint Drexler kifejtette, ez a megállapítás is téves.{435} Számos enzim – még azok is, amelyek alapvetően vizes környezetben működnek – képes vízmentes, szerves oldószeres közegben is funkcionálni, sőt: egyes enzimek még gőzfázisú szubsztrátokban, folyadék jelenléte nélkül is hatékonyak.{436}
Smalley ezek után (levezetés vagy hivatkozás nélkül) kijelentette, hogy az enzimszerű reakciók csak biológiai enzimekkel jöhetnek létre, és csak olyan kémiai reakciókban, ahol a víz is szerepel. Ez is téves állítás. Alexander Klibanov, az MIT kémia- és biomérnök professzora 1984-ben bemutatott efféle, vizet nem szerepeltető enzimkatalízist. Klibanov az alábbiakat írta 2003-ban. „[Smalley] állítása nyilvánvalóan téves a vízmentes enzimkatalízis kapcsán. Több száz, talán több ezer publikáció jelent meg a témában azóta, hogy húsz évvel ezelőtt közzétettük első dolgozatunkat.”{437}
Nem nehéz belátni, a biológiai evolúció miért részesítette előnyben a vízalapú kémiát. Bolygónkon nagy mennyiségben elérhető a víz, testünk, ételeink, sőt minden szerves anyag 70–90%-a vízből áll. A vízmolekulák háromdimenziós elektromos jellemzői igen erősek, és képesek felbontani más vegyületek erős kémiai kötéseit. A vizet „univerzális oldószernek” hívják, mert testünk szinte minden biokémiai folyamatában jelen van – kijelenthetjük, hogy bolygónkon az élet kémiája elsősorban a víz kémiája. De a technológiánk elsősorban épp olyan rendszereket kíván kifejleszteni, amelyeket nem kötnek a kizárólagosan vízalapú kémiát és fehérjéket alapul választó biológiai evolúció korlátai. Léteznek röpképes biológiai rendszerek, de ha tízezer méteren akarunk repülni, vagy több ezer kilométer per órás sebességgel, akkor inkább a modern technológiát hívnánk segítségül, mint a fehérjéket. Az emberi agyhoz hasonló biológiai rendszerek képesek emlékezni dolgokra és számolni, de ha több milliárdnyi információmorzsából akarunk adatot kinyerni, hasznosabb az elektronikus technológiához folyamodni, mint pusztán az emberi elmére támaszkodni.
Smalley tudomást sem vesz az elmúlt évtized kutatásairól például azon a téren sem, hogy milyen alternatív megoldásokkal lehetne molekulatöredékeket pozicionálni precízen irányított molekuláris reakciókon keresztül. A gyémántszerű anyagok pontosan irányított szintézisét kimerítően tanulmányozták; többek közt megvizsgálták azt a lehetőséget, hogy egyetlen hidrogénatomot távolítsanak el egy hidrogénezett gyémánt felületről{438} és azt az opciót is, hogy egy vagy több szénatomot adjanak a gyémánt felületéhez.{439} Ehhez kapcsolódóan olyan kutatásokat végeztek a Caltech Anyag- és Folyamatszimulációs Központjában, az Észak-Karolinai Állami Egyetem anyagtudományi és mérnöki karán, a Kentucky-i Egyetem Molekuláris Gyártási Intézetében, az Amerikai Haditengerészeti Akadémián, és a Xerox Palo Alto Kutatóközpontban, melyek alátámasztják a hidrogéneltávolítás és a precízen irányított gyémántszerű anyag szintézisének megvalósíthatóságát.{440}
Smalley mintha elfeledkezne a fentebb már említett, bevált pásztázószondás mikroszkópról is, bár az is precízen irányított molekuláris reakciókat használ. Ezen koncepciókból kiindulva Ralph Merkle olyan lehetséges szerszámhegy-reakciókat írt le, melyekben akár négy reagens is szerepelhetne.{441} Igen kiterjedt irodalma van a pozícióspecifikus reakcióknak, amelyek elméletileg precízen irányíthatóak lehetnek, és így megfelelhetnek a molekuláris összeállító szerszámhegyéhez szükséges feltételeknek.{442} Újabban számos, a pásztázószondás mikroszkópnál is hatékonyabb műszer bukkant fel, ezek megbízhatóan képesek manipulálni az atomokat és a molekulatöredékeket.
2003. szeptember 3-án Drexler válaszolt Smalley levelére, melyben az ő eredeti írására reagált, és újfent utalt arra a nagy terjedelmű szakirodalomra, amit Smalley figyelmen kívül hagyott.{443} Párhuzamot vont egy modern gyárral, épp csak nanoméretben. Olyan elemzéseket idézett az átmenetiállapot-elméletről, melyek arra utaltak, hogy megfelelően kiválasztott reagensek esetén a pozicionális irányítás megahertzes frekvenciákon megvalósítható lehet.
Smalley válaszlevele a pontos idézetek és az aktuális kutatások terén ismét igen rövid volt, a pontatlan metaforákén azonban annál hosszabb.{444} Például azt írta, hogy „hasonlóképp ahhoz, ahogy egy fiút és egy lányt nem lehet szerelemre bírni pusztán azzal, hogy egymásnak lökjük őket, a precíz kémiát sem lehet kierőltetni két molekuláris tárgy közt egyszerű mechanikus mozgással… nem lehet annyival megoldani, hogy egyszerűen csak egymáshoz tolunk két molekuláris tárgyat”. Ismét elismeri, hogy az enzimek valójában pont ezt teszik, de továbbra sem hajlandó elfogadni, hogy efféle reakciók a biológiai rendszereken kívül lehetségesek volnának: „Ezért is vettem rá, hogy… igazi kémiáról és igazi enzimekről beszéljünk… Minden ilyen rendszernek folyékony közegre lesz szüksége. Az általunk ismert enzimek számára ennek víznek kell lennie, és azok a dolgok, amelyeket vizes környezetben szintetizálni lehet, nem terjedhetnek túl számottevően a biológia húsán és csontján.” Smalley érvrendszere nagyjából az, hogy „X ma nem létezik, tehát X teljességgel lehetetlen”. Ezzel az érvfajtával ismételten találkozhatunk a mesterséges intelligencia területén. A kritikusok állítják, hogy a pillanatnyi rendszerek korlátai bizonyítják, hogy ezek a korlátok a rendszer velejárói, és mint ilyenek, legyőzhetetlenek. Ezek a kritikusok például figyelmen kívül hagyják a pillanatnyilag létező MI-változatok terjedelmes listáját (lásd: A gyenge MI használatának példái ), melyek olyan, ma üzleti forgalomban lévő, működő modellek, amik egy évtizede még csak kutatási programok voltak.
Mi, akik jól megalapozott módszertanok alapján próbáljuk előre jelezni a jövőt, nagy hátrányban vagyunk. A jövő egyes realitásai elkerülhetetlenek, de egyelőre nem nyilvánultak meg, így könnyen letagadhatóak. A XX. század elején gondolkodók egy kis csoportja állította, hogy lehetséges a levegőnél nehezebb repülőgép, de a közgondolkodást követő szkeptikusok csak annyit mondtak, ha valóban lehetséges, miért nem mutatta még be senki sem?
Smalley feltárta az indítékainak egy részét a következő levele végén:
„Pár héttel ezelőtt előadást tartottam a nanotechnológiáról és az energiáról. Légy tudós, mentsd meg a világot! volt a címe, és mintegy hétszáz középiskolás hallgató vett rajta részt a Spring Branch ISO tanulmányi programban, egy nagy, Houston környéki állami iskolarendszerben. A látogatásom előtt arra kértük a diákokat, hogy Miért vagyok nanobolond? címmel írjanak egy-egy esszét. Több százan meg is írták, és abban a szerencsében részesültem, hogy elolvashattam a legjobb harmincat, és kiválaszthattam az öt legkiemelkedőbbet. Az olvasott dolgozatok közel fele feltételezte, hogy az önsokszorosító nanobotok lehetségesek, és a többségüket komolyan aggasztotta, hogy mi vár rájuk a jövőben, ha ezek a robotok elterjednek. Minden tőlem telhetőt megtettem, hogy csillapítsam a félelmüket, de semmi kétség nem fér hozzá, hogy ezeknek a kamaszoknak nagyon aggasztó esti meséket mondtak.
Önök és az elvbarátaik megrémítették a gyermekeinket.”
Szívesen felhívnám rá Smalley figyelmét, hogy a szkeptikusok korábban kifejtették: egy az egész világra kiterjedő kommunikációs rendszer megvalósíthatatlan, de még ha az is lenne, nem terjedhetnének rajta szoftvervírusok. Ma mind a gyümölcseit, mind a gyengeségeit megtapasztalhatjuk ennek a kapacitásnak. De a szoftvervírusok veszedelmére válaszul megjelent a technológiai immunrendszer. Sokkal több hasznunk, mint kárunk származik az ígéret és a hozzá tapadó fenyegetés ezen legfrissebb példájából is.
Smalley nem jól közelíti meg, hogy miként kellene megnyugtatni az átlagembereket azzal kapcsolatban, hogy ezzel a jövőbeli technológiával esetleg vissza is lehet élni. A nanotechnológiai alapú alkotás lehetőségének tagadásával az abban rejlő potenciált is megtagadja. Ha a molekuláris összeállítás ígéretét és veszedelmét egyaránt tagadjuk, az visszaüt, és nem segíti a kutatás elengedhetetlenül szükséges, konstruktív irányba való terelését. A 2020-as évekre a molekuláris összeállítók olyan eszközökkel láthatnak el minket, melyek hatékonyan felvehetik a harcot a szegénység ellen, megtisztíthatják a környezetünket, legyőzhetik a betegségeket, meghosszabbíthatják az emberi életet, és még számos más pozitív változással járhatnak. Az emberiség által megalkotott minden más technológiához hasonlóan ezt is fel lehet arra használni, hogy az emberiség pusztító hajlamait támogassa. Fontos, hogy előrelátóan közelítsük meg ezt a technológiát, hogy az ígért előnyöket elérhessük, a veszedelmeket pedig elkerülhessük.
Korai alkalmazások
Bár Drexler nanotechnológiai koncepciója elsősorban a gyártás precíz molekuláris irányításával foglalkozott, idővel kiterjedt minden olyan technológiára, amelyek kulcselemei a nanométerek szerény léptékében mérhetőek (általában száz nanométer alattiak). Miképp a jelenlegi elektronika szép csendben becsusszant ebbe a tartományba, a biológiai és gyógyászati alkalmazások is beléptek a nanorészecskék korszakába, és nanoméretű tárgyakat fejlesztenek a hatékonyabb vizsgálatokhoz, illetve kezelésekhez. Bár a nanorészecskéket inkább statisztikai gyártási módszerekkel állítják elő, mint összeállítókkal, a hatásuk ugyanúgy atomi méretükből fakadó tulajdonságaikon keresztül érvényesül. Példának okáért az, hogy a kísérleti biológiai vizsgálatok során nanorészecskéket használnak jelölőként és címkeként, nagyban növeli a fehérjékhez hasonló anyagok észlelésének érzékenységét. A mágneses nanocímkék például kapcsolódhatnak az antitestekhez, és mágneses szondával leolvashatóak, mialatt még a testben vannak. Sikeres kísérleteket végeztek olyan arany nanorészecskékkel, amelyek a DNS egyes szegmenseihez kapcsolódnak, és gyorsan visszakereshetővé tesznek adott DNS-szekvenciákat egy mintán belül. Bizonyos parányi, nanoméretű gyöngyökbe, az úgynevezett „kvantumpöttyökbe” több színt tartalmazó, specifikus kódok táplálhatók a színes vonalkód mintájára, és a segítségükkel könnyen nyomon követhető egyes anyagok útja a testen belül.
A fejlesztés alatt álló mikrofolyadékos eszközökben nanoméretű csatornák segítik elő, hogy egy adott anyag parányi mintáján is több száz vizsgálatot végezhessenek egy időben.
Nanoállványzatok felhasználásával növesztettek biológiai szövetet is, például bőrt. A jövő orvosi eljárásai során ezen miniatűr állványzatok segítségével bármilyen megjavítandó szövettípust növeszthetnek a testen belül.
Különösen izgalmas az az alkalmazás, ami nanorészecskék irányításával a test adott pontján képes kezelést végezni. A nanorészecskék a sejtfalakba kormányozhatják a gyógyszereket, át a vér–agy-gáton. A montreali McGill Egyetem kutatói egy 25–45 nanométeres szerkezettel bíró nanopirulát mutattak be.{445} A nanopirula elég kicsi ahhoz, hogy átjusson a sejtfalon, és egyenesen a sejten belül megcélzott struktúrához juttassa el a gyógyszert.
Japán tudósok száztíz aminosavból álló nanoketreceket hoztak létre. A ketrecekben gyógyszermolekulák találhatóak. Minden egyes nanoketrec felszínéhez egy-egy olyan peptid kapcsolódik, amely az emberi test megadott pontjaival létesít kötést. Az egyik kísérletben a tudósok olyan peptidet használtak fel, amelyik az emberi májsejtek egy meghatározott receptorával alakít ki kötést.{446}
Massachusettsben lévő bedfordi illetőségű MicroCHIPS bőr alá ültethető, számítógépesített készüléket fejlesztett ki, amely gyógyszerek precíz keverékét adagolja a szerkezeten belül található több száz nanoméretű edényből a testbe.{447} A készülék jövőbeni változatai a tervek szerint képesek lesznek egyes anyagok, például a cukor szintjét mérni a vérben. A rendszert mesterséges hasnyálmirigyként használhatnánk, ami a vércukorszintre válaszul pontosan adagolja az inzulint a szervezetnek. De tetszőleges más hormontermelő szervet is képes lenne szimulálni. Ha a próbák rendben mennek, a rendszer akár 2008-ra piacon lehet{11}. Szintén igen innovatív felvetés, hogy arany nanorészecskéket irányítsanak egy daganathoz, majd infravörös sugárral felmelegítve elpusztítsák a rákos sejteket. Nanoméretű csomagokat lehetne arra tervezni, hogy a bennük rejlő gyógyszert megvédjék az emésztőrendszertől, és adott helyre szállítsák, aztán összetett módon adagolják, azt sem kizárva, hogy esetleg a testen kívülről érkező utasításoknak engedelmeskednek. A floridai Alachuában található Nanotherapeutics által kifejlesztett, alig pár tucat nanométer vastag, biológiailag lebontható polimer ezt a megközelítést használja.{448}
A szingularitás szolgálatában
Jelenleg a világ energiatermelése mintegy tizennégy billió (úgy 1013) watt. Ennek az energiának nagyjából 33%-a olajból, 25%-a szénből, 20%-a gázból, 7%-a atomerőműből, 1,5%-a biomasszából és vízenergiából származik, és csak mintegy 0,5%-ot tesz ki a nap-, a szél- és a geotermikus energia.{449} A légszennyezettség túlnyomó része és a vízszennyezettség, valamint az egyéb szennyeződések ezen energiaforrások kitermeléséből, szállításából és feldolgozásából származnak, és felemésztik a nem megújuló energiaforrások mintegy 78%-át. Az olajból származó energia mindemellett geopolitikai feszültséget is kelt, és ott van még az az apróság, hogy az egész mintegy kétbillió dollárba kerül évente. Bár az ipari korszak energiaforrásai, amelyek a mai napig uralják az energiatermelést, a nanotechnológiai alapú kitermelési, továbbítási és feldolgozási módszerekkel hatékonyabbá válnak, a megújuló energiaforrásoknak kell átvállalniuk a jövőbeni energianövekedés oroszlánrészét.
2030-ra a számítás és a kommunikáció ár–teljesítmény-aránya a maihoz képest tíz-százmilliószoros lesz. Más technológiák kapacitása és hatékonysága hihetetlen mértékben megnövekedik. Az energiaigény ennek ellenére sokkal lassabban növekszik majd a technológiai kapacitásnál, mivel az energiafelhasználás jóval hatékonyabbá válik – erre a későbbiekben még kitérek. A nanotechnológiai forradalommal járó elsődleges következtetés az, hogy az olyan fizikai technológiák, mint a termékek előállítása vagy az energia, a gyorsuló megtérülés törvénye alá fognak esni. Tulajdonképp minden technológia információs technológia lesz, beleértve ebbe az energiát is.
A világ energiaszükséglete becslések szerint 2030-ra a mai kétszerese lesz, lényegesen kevesebb, mint a becsült gazdasági növekedés, és messze elmarad a technológiai kapacitás várt fejlődésétől.{450} A további szükséges energia feltehetően az újfajta nanoméretű nap-, szél- és geotermikus technológiákból fog származni. Fontos felismerni, hogy a mai energiaforrások többsége is valamely formában a napenergia hasznosításán alapul.
A fosszilis tüzelőanyagokban az állatok és növények által megfelelő kémiai folyamatok során átalakított napenergia tárolódik (bár azt az elméletet, hogy a fosszilis tüzelőanyagok valóban élő szervezetekből származnának, az utóbbi időben néhányan megkérdőjelezték). De a kőolaj kitermelése az olajkutakból már elérte a maximumát, sőt egyes szakértők szerint már csökkenő ütemet mutat. Az mindenképp egyértelmű, hogy gyors tempóban merítjük ki a könnyen hozzáférhető fosszilis üzemanyagokat. Igen nagy fosszilisüzemanyag-tartalékunk van, ám azt csak bonyolultabb technológiával tudjuk kiaknázni tisztán és hatékonyan (például szénből vagy olajpalából – ezek alkotják a jövő energiaiparának alapjait). A most épített, milliárd dolláros bemutató erőmű, a FutureGen a tervek szerint a világ első nulla kibocsátású fosszilisüzemanyag-erőműve lesz.{451} Ahelyett, hogy a mai eljárásoknak megfelelően egyszerűen elégetné a szenet, a 275 megawattos erőmű azt hidrogénből és szénmonoxidból álló szintetikus gázzá alakítja. Ez a gáz reakcióba lépve a gőzzel hidrogént és szén-dioxidot produkál, melyeket leválasztanak. A hidrogént ezek után üzemanyagcellákban használhatják fel, vagy elektromos árammá és vízzé alakítják. A gyár terveinek kulcsfontosságú része a hidrogént és a szén-dioxidot elválasztani képes új anyagokból készült membrán.
Elsősorban azonban a tiszta, megújuló, eloszló és biztonságos energetikai technológiák kifejlesztésén lesz a hangsúly – mert a nanotechnológia segítségével erre is képesek leszünk. Az elmúlt évtizedek során az energetikai technológiák az ipari kor S-görbéjének leszálló ágán tanyáztak (az adott technológiai paradigma kései szakaszában, ahol a lehetőségek lassan közelítenek egy aszimptotához vagy korláthoz). Bár a nanotechnológiai forradalomnak új energiaforrásokra lesz szüksége, egyben új S-görbéket vezet be az energia minden aspektusában – a termelésben éppúgy, mint a tárolásban, a továbbításban vagy a felhasználásban – már a 2020-as évekre.
Vegyük sorra ezeket az aspektusokat fordított sorrendben, a felhasználásnál kezdve! Mivel a nanotechnológia képes szélsőségesen parányi méretben, az atomok és a molekulatöredékek szintjén kezelni az anyagot és az energiát, az energia felhasználása sokkal hatékonyabb lesz, azaz csökken az energiaigény. Az elkövetkezendő évtizedek során a számítás átáll a reverzibilis számításra (lásd: A számítógép-használat korlátai a 3. fejezetben)
Mint korábban kifejtettem, a reverzibilis logikai kapukkal való számítás elsődlegesen a kvantum- és hőhatásokból származó eseti hibák korrigálásához igényel energiát. Ennek eredményeképp a reverzibilis számítás energiaszükséglete akár egymilliárdszor kisebb lehet, mint a nonreverzibilis számításé. Továbbá a logikai kapuk és a memóriaelemek is kisebbekké válnak, minden dimenzióban legalább a mostani méret tizedére zsugorodnak, tehát ezzel is ezredére csökken az energiaszükséglet. A fejlett nanotechnológia ennek megfelelően tehát minden egyes bit átkapcsolásának energiaigényét a mostani egybilliomod részére csökkentené. Természetesen ennél jóval nagyobb mértékben megnöveljük majd a számítások mennyiségét, de ez a jelentősen feljavított hatékonyság nagyban lefedi majd ezt a növekedést.
A molekuláris nanotechnológia gyártási folyamatai is jóval energiahatékonyabbak lesznek a jelenlegi gyártási folyamatoknál, amelyekhez viszonylag nagy pazarlással kell jelentős mennyiségű árut szállítani egyik helyről a másikra.
A gyártási folyamatok ma rengeteg energiát áldoznak az alapanyagok, például az acél előállítására is. Egy tipikus nanogyár gyakorlatilag egy asztalon is elfér, és a számítógéptől a ruháig bármilyen terméket elkészít. A nagyobb termékeket (járműveket, lakóházakat, vagy további nanogyárakat) moduláris alrendszerek hoznák létre, ezeket nagyobb robotok állítanák össze. Az elszökő hőt, ami a nanogyártás elsődleges energiaigényének számít, befognák és újrahasznosítanák.
A nanogyárak energiaszükséglete elhanyagolható. Drexler úgy becsüli, hogy a molekuláris gyártás inkább energiát termel majd, mint energiát fogyaszt. Szerinte „a molekuláris gyártási folyamatot a betáplált anyagok kémiai energiatartalma hajtaná, melléktermékként elektromos energiát termelve (már csak azért is, hogy könnyítsen a hőelvezetés követelményein)… Tipikus szerves alapanyagok felhasználásával, és a többlethidrogén oxidálásával számolva, az ésszerűség határain belül hatékony molekuláris gyártási folyamat nettó energiatermelőnek számít”.{452}
A termékek új nanocsőalapú és nanokompozit anyagokból is készülhetnének, ezzel elkerülve azt a hatalmas energiafelhasználást, amit manapság az acél, a titán és az alumínium előállítására fordítunk. A nanotechnológiás alapú világítás kicsiny, hideg, LED-ekkel, kvantumpöttyökkel és egyéb innovatív fényforrásokkal váltaná le a forró, nem hatékony izzólámpákat és fénycsöveket.
Bár a gyártott termékek funkcionalitása és értéke növekedni fog, a termékek mérete általánosságban nem növekszik majd (és egyes esetekben, például az elektronikus eszközöknél, inkább csökken majd). A gyártott termékek magasabb értéke javarészt az információs tartalom növekvő értékének lesz köszönhető. Bár az információalapú termékek és szolgáltatások közel ötvenszázalékos deflációja ebben az időszakban sem csökken, míg az értékes információ mennyisége még nagyobb, szinte már szédítő iramban fog növekedni.
A második fejezetben már kifejtettem, hogyan hat a visszatérő nyereség törvénye az információ kommunikációjára. A kommunikált információ mennyisége továbbra is hatványozottan növekedni fog, de a kommunikáció hatékonysága is közel ilyen mértékben fejlődik, így a kommunikáció energiaszükséglete csak lassan fog gyarapodni.
Az energia továbbítása is jóval hatékonyabbá válik. Manapság rengeteg energia elvész továbbítás közben, vagy a vezetékek felforrósodása, vagy az üzemanyag szállítása miatt, ami ráadásul nagyban károsítja a környezetünket is. Smalley bármennyire erőteljesen kritizálta is a molekuláris nanogyártás lehetőségét, mindig is támogatta az energiatermelés és -továbbítás új, nanotechnológiai alapú paradigmáját. Leírása alapján az új kábelek hosszú drótokba font szén nanocsövekből állhatnának: ezek erősebbek, könnyebbek, és ami a legfontosabb, jóval energiahatékonyabbak a hagyományos rézdrótoknál.{453} Elképzelései szerint a nagyobb hatékonyság érdekében szupravezető vezetékekkel válthatjuk ki az elektromos motorok alumínium- és rézhuzalait is. Smalley elképzelése egy nanotámogatott jövőbeni energiáról az alábbi új jellemzőkre is kitér:{454}
• Napenergia: a napelemek árának tizedére-századára csökkentése.
• Hidrogén-előállítás: a napfény segítségével a vízből hatékonyan hidrogént előállítani képes új technológiák kifejlesztése.
• Hidrogéntárolás: könnyű, erős anyagok az üzemanyagcellákhoz használt hidrogén tárolására.
• Üzemanyagcellák: az üzemanyagcellák költségének tizedére-századára csökkentése.
• Energiatároló elemek és szuperkondenzátorok: az energiatárolás sűrűségének tízszeresére-százszorosára javítása.
• A közlekedési eszközök, például autók és repülőgépek hatékonyságának fejlesztése erős és könnyű nanoanyagok létrehozásával.
• Nagy léptékű űrbeli – például a Holdon történő – energia-előállítás céljaira kifejlesztett erős, könnyű nanoanyagok.
• Nanoméretű elektronikát használó, mesterséges intelligenciával bíró robotok az űrben és a Holdon használt energiatermelő szerkezetek automatikus létrehozatalára.
• Nanoanyag-bevonatok, melyekkel nagyban lehetne csökkenteni lehet a mélyfúrások költségeit.
• Nanokatalizátorok, melyek segítségével igen magas hőfokon nagyobb hatékonysággal nyerhető ki energia a szénből.
• Nanoszűrők, melyek befogják a keletkező kormot. A korom túlnyomórészt szénből áll, és a szén a legtöbb nanotechnológiai terv alapépítőeleme.
• Újfajta anyagok, melyek segítségével megvalósulhat a geotermikus források „forró, száraz kőzet” technológiájú kiaknázása (azaz a földbelső hőenergiájának felhasználása).
Az energia továbbítására alternatívát jelenthet a mikrohullámú sugárzás is. Ez a módszer különösen arra lenne jó, hogy hatékonyan sugározzuk tovább az űrbe telepített, óriási napelemek termelte energiát (lásd alább).{455} Az ENSZ Egyetemének Amerikai Tanácsa által létrehozott Millennium Projekt a mikrohullámú energiatovábbítást tartja a „tiszta, bőséges jövőbeni energia” kulcsának.{456}
Az energiatárolás manapság erősen központosított. Ez kulcsfontosságú pontokon teszi sérülékennyé a folyékonygáz-tartályokat és egyéb tárolóegységeket például egy esetleges terroristacsapás során, ami katasztrofális következményekkel járhat. Az olajszállító tartálykocsik és hajók is épp ilyen kiszolgáltatottak. Az energiatárolás jövője az üzemanyagcellákban rejlik, ez végül az infrastruktúra minden szintjén elterjed, újabb példát szolgáltatva a nem hatékony és sérülékeny központosított telepeket leváltó hatékony és egyenletes elosztású rendszerekre.
A hidrogén-oxigén üzemanyagcellák, ahol a hidrogént metanolból és más, hasonlóan biztonságos, hidrogénben gazdag alapanyagokból nyerjük, jelentős fejlődésen mentek keresztül az elmúlt pár évben. Egy kis massachusettsi cég, az Integrated Fuel Cell Technologies bemutatott egy úgynevezett mikro-elektromechanikus (Micro Electronic Mechanical System, MEMS) alapú üzemanyagcellát.{457} Minden egyes postai bélyeg méretű készüléken több ezer mikroszkopikus üzemanyagcella található, melyek már tartalmazzák a csöveket és az irányító elektronikát. A NEC azt tervezi, hogy a közeljövőben nanocsöveken alapuló üzemanyagcellákat vezessen be a laptopoknál és egyéb hordozható elektronikai eszközöknél is.{458} Állításuk szerint a kis energiaforrások akár negyven órán át működtetni tudják majd az eszközöket. A Toshiba is dolgozik a hordozható elektronikai eszközökhöz való üzemanyagcellákon.{459}
A gépeket, járműveket, vagy akár otthonokat energiával ellátó nagyobb üzemanyagcellák terén is jelentős az előrehaladás. Az Egyesült Államok Energiaügyi Minisztériuma egy 2004-es jelentésben azt a következtetést vonta le, hogy a nanoalapú technológiák egy hidrogén-üzemanyagcellás autó minden aspektusát képesek ellátni.{460} Például a hidrogént nagy nyomásnak is ellenálló, erős, de könnyű tartályokban kell tárolni. Az olyan nanoanyagok, mint a nanocsövek és a nanokompozitok, alkalmasak lennének ilyen tartályok kialakítására. A jelentésben olyan üzemanyagcellákról írnak, amelyek kétszer hatékonyabban működnek, mint a benzinmotorok, és hulladékként is csak vizet termelnek.
Számos jelenlegi üzemanyagcella-tervezetben metanolból nyernék a hidrogént, mely aztán a levegőben található oxigénnel keveredve vizet termelne, és energiát. A metanol (faszesz) azonban nehezen kezelhető anyag, továbbá biztonsági aggályokat kelt, mivel mérgező és gyúlékony. A St. Louis-i Egyetem kutatói olyan stabil üzemanyagcellát mutattak be, amely közönséges etanollal (emberi fogyasztásra is alkalmas gabonaszesszel) működik.{461} Ez a készülék egy dehidrogenáz nevű enzimet használ, ami leválasztja a hidrogénionokat az alkoholról. A hidrogénionok ezután reakcióba lépnek a levegővel, és energiát termelnek. A cella minden jel szerint szinte bármilyen emberi fogyasztásra alkalmas alkohollal működik. „Jó néhány típussal kipróbáltuk – mondta Nick Akers, a projekten dolgozó, végzős hallgató. – A szénsavas sört nem szerette, és mintha a borral sem lett volna igazán jóban, de minden mással rendben működött.”
A Texasi Egyetem kutatói olyan nanobot méretű cellát hoztak létre, amely egyenesen az emberi vérben található glükóz–oxigén-reakció révén állít elő elektromos áramot.{462} A „vámpírbot” néven emlegetett cella kellő energiát termel a hagyományos elektronikus szerkezetek működtetéséhez, és talán fel lehet használni a jövőben a vérben keringő nanobotok működtetéséhez is. Hasonló projekten dolgozó japán tudósok arra a becslésre jutottak, hogy a rendszerük csúcsteljesítménye elméletileg akár száz watt is lehet (egyetlen ember vérmennyiségére számolva), bár a beültethető készülékek nyilván jóval kevesebbet használnának. (Sydney-ben egy újság meg is jegyezte, hogy ez a projekt alátámasztja a Mátrix-filmekben felmerült ötletet, mely szerint az embereket elemként lehetne használni.){463}
Egy másik megközelítés a természet világában nagy mennyiségben megtalálható cukorból nyerne elektromosságot. Ezt a Massachusettsi Egyetem két szakembere, Swades K. Chaudhuri és Derek R. Lovley mutatta be. Az ő üzemanyagcellájukban valódi mikrobák vannak (Rhodoferax ferrireducens baktériumok). Lenyűgöző, 81%-os hatékonysággal működik, és ha épp nincs aktív használatban, szinte semmi energiát nem fogyaszt. A baktérium egyenesen a glükózból termeli az elektromosságot, és nem hoz létre instabil mellékterméket. A baktérium a cukor segítségével reprodukálja magát, azaz mindig újratermelődik, tehát stabilan és folyamatosan tudja biztosítani az elektromos energiát. A rendszer más cukortípusokkal – például fruktózzal és xilózzal is – épp ilyen sikeresen működött. Az ezen a kutatáson alapuló üzemanyagcellák felhasználhatják a valódi baktériumokat, vagy közvetlenül alkalmazhatják a baktériumok által előállított kémiai reakciókat. Mindamellett, hogy cukorban dús vérben ellátnák üzemanyaggal a nanobotokat, ezek a készülékek képesek lehetnek arra is, hogy energiát termeljenek az ipari és mezőgazdasági hulladékból.
Ígéretes az is, hogy a nanocsövek nanoméretű akkumulátorként tárolhatják az energiát, és a nanotervezett üzemanyagcellák vetélytársai lehetnek.{464} Ez tovább színesíti a nanocsövek amúgy is lenyűgöző sokoldalúságát: már bebizonyították, hogy alkalmasak hatékony számításokra, az információ kommunikálására, az elektromos áram továbbítására, és szélsőségesen erős szerkezetű anyagokat is létre lehet hozni belőlük.
A nanoanyagok támogatta energia legígéretesebb formája a napenergia, amelyben ott rejlik a lehetőség, hogy jövőbeni energiaigényünk nagyját teljesen megújuló, károsanyag-kibocsátástól mentes módon, helybeli előállítással oldjuk meg. A napelembe jutó napfény nem kerül semmibe. A Földet érő napfény nagyjából 1017 watt teljesítménynek felel meg, ez körülbelül tízezerszer több, mint a jelenleg az emberi civilizáció által felhasznált 1013 watt.{465} Mint korábban már említettem, a következő negyedszázadban várható, elképesztő ütemű számítási és kommunikációs ugrás és az ebből következő gazdasági növekedés ellenére a nanotechnológia ezen is túlmutató energiahatékonysága azt sugallja, hogy az energiaszükségletünk szerényebben nő, csak nagyjából harmincbillió wattra (3 x 1013) 2030-ra. A teljes igényt fedezhetnénk a napenergiából, és elég lenne hozzá csak a Nap Földre sugárzott energiájának 0,0003 részét (három tízezredét) felhasználnunk.
Érdekes ezeket a számokat összevetni az emberi faj anyagcseréjének teljes energiakibocsátásával, amit Robert Freitas 1012 wattra becsül, és a Föld teljes növényzetére vonatkozó számmal, amelyet 1014 wattra tippel. Freitas becslése szerint az az energia, amit anélkül termelhetünk és használhatunk fel, hogy felborítanánk a jelenlegi földi biológiai rendszer fenntartásához szükséges globális energia-egyensúlyt, nagyjából 1015 watt körül lehet. Ez személyenként is igen jelentős számú nanobot alkalmazását tenné lehetővé az intelligencia növelésére és gyógyászati célokra, valamint olyan egyéb alkalmazásokra, mint az energiatermelés vagy a környezet megtisztítása. Ha nagyjából tízmilliárdos (1010) globális emberi lakosságot feltételezünk, Freitas számításai szerint egyénenként 1016 (tízezer billió) nanobot lenne elfogadható ezen a határon belül.{466} Egyénenként csak mintegy 1011 nanobotra (ennek a tízmilliomod részére) lenne szükségünk ahhoz, hogy minden egyes idegsejthez egy nanobotot rendeljünk. Mire a technológia ilyen mértékre fejlődik, képesek leszünk a nanotechnológia segítségével befogni és újrahasznosítani a nanobotok és egyéb nanogépezetek termelte hő legalábbis jelentős részét, és azt ismét energiává alakítani. Ennek a leghatékonyabb módja talán az lenne, ha az energia-újrahasznosítót magába a nanobotba építenénk.{467} Ez nagyban hasonlít a számításoknál látott reverzibilis logikai kapukra, ahol minden egyes logikai kapu tulajdonképp azonnal újra felhasználja a legutóbbi számításához felhasznált energiát.
Szén-dioxidot is kivonhatunk az atmoszférából, hogy ellássuk szénnel a nanogépezeteket, ami visszafordítaná a jelenlegi, iparosodás korára jellemző technológiák okozta széndioxid-növekedést. Ez ügyben viszont nem ártana nagyon gondosan odafigyelnünk, hogy épp csak visszafordítsuk az elmúlt jó néhány évtized növekedését, nehogy a globális felmelegedés helyett globális lehűlést okozzunk!
Az eddig működésbe állított napelemek meglehetősen alacsony hatásfokúak, ám igen drágák, de a technológia gyors ütemben fejlődik. A napenergia elektromos árammá alakításának hatékonysága a szilícium napenergia-cellák tekintetében egyenletesen javul: 1952-ben még csak 4% körül volt, de 1992-ben már 24%.{468} A jelenlegi, többrétegű cellák nagyjából 34%-os hatékonysággal működnek. Egy a nanokristályoknak a napenergia felhasználási hatékonyságára gyakorolt hatását vizsgáló friss jelentés azt mutatja, hogy akár 60%-nál magasabb hatékonyság is elérhető lehet általuk.{469}
Ma a napenergia becslések szerint 2,75 dollár/wattba kerül.{470} Számos cég dolgozik nanoméretű napelemek kifejlesztésén abban a reményben, hogy így a napenergia árát a többi energiaforrás alá lehet szorítani. Az ipari források arra utalnak, hogy amint a napenergia az 1 dollár/watt ár alá esik, elég versenyképes lesz ahhoz, hogy közvetlenül ellássa árammal az amerikai országos hálózatot. A napenergia nanoméretű eszközökkel történő kiaknázására irányuló tervek titán-oxid nanorészecskéken alapulnak, melyeket nagyon vékony, hajlékony hártyákban lehet tömegesen is gyártani. Martin Roscheisen cégvezető becslései szerint ez a technológia akár már 2006-ra ötven cent per watt, azaz a földgáz ára alá csökkentheti a napenergia árát.{471} Versenytársai, a Nanosys és a Konarka hasonló előrejelzéseket közöltek. Akár megvalósulnak ezek az üzleti tervek, akár nem, amint eljutunk az MNT-(molekulárisnanotechnológia-)-alapú gyártásig, képesek leszünk napelemeket (és szinte minden mást) szélsőségesen alacsony áron gyártani, gyakorlatilag a nyersanyag árában, amiből az olcsó szén az egyik legfontosabb. A várhatóan néhány mikronnyi vastagságú napelemek ára végül akár olyan alacsony is lehet, mint egy cent per négyzetméter. Hatékony napelemekkel fedhetnénk le az emberkéz alkotta felületek túlnyomó részét – az épületeket és a járműveket, de beleszőhetnénk a ruhánkba is, hogy feltöltsék a mobileszközeinket. A 0,0003-as konverziós arány igencsak elérhetőnek tűnik a napenergia esetében, és meglehetősen olcsónak is.
A földi felszínek termelte energiát az űrben elhelyezett hatalmas panelekkel is kiegészíthetjük. A NASA már meg is tervezte a Space Solar Power műholdat, amely képes lenne a napfényt az űrben elektromossággá alakítani, és azt mikrohullámon lesugározni a Földre. Minden egyes ilyen műhold több milliárd watt, több tízezer otthon ellátására elegendő elektromosságot termelhetne.{472} Nagyjából 2029 körül odáig is eljuthat az MNT, hogy hatalmas, a Föld körül keringő napelemtáblákat alkossunk: elég lenne az alapanyagokat felszállítani az űrállomásokra – talán a tervbe vett űrliften, az űrből lelógó, illetve jóval a geoszinkron-pályán túlra felnyúló, szén nanocsőkompozitból készült vékony szalagon.{473}
Az asztali magfúzió is a lehetőségek között szerepel. Az Oak Ridge Nemzeti Laboratórium kutatói ultrahanghullámok segítségével rezgettek egy folyékony oldatot, ezzel elérve, hogy a gázbuborékok olyan nyomás alá kerüljenek, ahol több millió fokos hőmérsékletet érnek el, melynek eredményeképp a hidrogénatommagok egyesültek, és energia keletkezett.{474} Bár a hidegfúzióról szóló eredeti bejelentést a többség igen szkeptikusan fogadta 1989-ben, ezt az ultrahangos módszert több más szakember is melegen üdvözölte{475}{12}. Ennek ellenére nem tudunk még eleget arról, hogy a gyakorlatban mennyire használható ez a technika, így csak találgatni lehet, miféle szerepet tölthet be a jövő energiaellátásában.
A nanotechnológia környezeti alkalmazása
A kibontakozóban lévő nanotechnológiai lehetőségek láttán sejteni lehet, hogy a környezetre is igen nagy hatással lesznek. Ehhez hozzátartozik az is, hogy az újonnan létrejövő gyártási és feldolgozási technológiák drámaian lecsökkentik a nemkívánatos károsanyag-kibocsátást, de az is, hogy az iparosodás korának korábbi hatását semlegesíthetjük. Természetesen az, hogy olyan nanotechnológiailag támogatott, megújuló, tiszta forrásokból fedezzük majd az energiaszükségletünket, mint a nanoszoláris panelek, amint arról már szó volt, nyilvánvalóan az egyik fő törekvésünkké válik például a környezetvédelem terén is.
Azzal, hogy molekuláris léptékben építünk részecskéket és eszközöket, nemcsak a méretet csökkentjük le erőteljesen és a felületet növeljük meg, de új elektromos, kémiai és biológiai tulajdonságokkal is megismerkedünk. A nanotechnológia végül elvezet minket a javított katalízis, a kémiai és atomi kötések, az érzékelés, a mechanikus manipuláció egyre kiterjedtebb eszköztárához, a továbbfejlesztett mikroelektronikán keresztüli intelligens irányításról nem is beszélve. Az út végén újratervezzük minden ipari folyamatunkat, hogy minimális káros következménnyel, nemkívánatos melléktermékek és ezek környezetbe juttatása nélkül érjük el a kitűzött célokat. Az előző részben szó esett már egy hasonló trendről a biotechnológiában: az intelligens tervezésű gyógyszerészeti ágensekről, amelyek igen korlátozott mellékhatásokkal képesek elvégezni szigorúan célzott biokémiai beavatkozásokat. A tervezett molekulák megalkotása a nanotechnológia segítségével nagyban fel fogja gyorsítani a biotechnológia forradalmát is.
A kortárs nanotechnológiai kutatások és fejlesztések relatíve egyszerű „készülékekkel” dolgoznak. Ilyenek a nanorészecskék is, a nanorétegek és nanocsövek segítségével előállított molekulák. A nanorészecskék több tíztől több ezerig terjedő számú atomból állnak, általában kristályos szerkezetűek, és az előállításuk kristálynövesztő módszereken alapul, minthogy még nem rendelkezünk precíz nanomolekuláris gyártási módszerekkel. A nanoszerkezetek több rétegből állnak, melyek maguktól állnak össze. Az efféle szerkezeteket általában hidrogén- és szénkötések, illetve egyéb atomi szintű kölcsönhatások tartják össze. A sejtfalhoz vagy a DNS-hez hasonló biológiai szerkezetek a természetben fellelhető példák a többrétegű nanoszerkezetekre.
Mint minden új technológiának, a nanorészecskéknek is megvan a hátrányuk: újfajta mérgező anyagok keletkezhetnek, és más, kiszámíthatatlan módon is kölcsönhatásba kerülhetnek a környezettel és az élő anyaggal. Számos mérgező anyag, például a gallium-arzenid már most bekerül az ökoszisztémába az eldobott elektronikai termékek jóvoltából. Ugyanazok a tulajdonságok, amelyek képessé teszik a nanorészecskéket és a nanorétegeket arra, hogy szigorúan célzott, jótékony hatást fejtsenek ki, előre nem látható reakciókhoz is vezethetnek, különösen az olyan biológiai rendszerek esetében, mint amilyen az élelmiszerellátásunk, vagy a tulajdon testünk. Bár a jelenlegi szabályozások számos esetben képesek kezelni a kockázatokat, a legfőbb ok az aggodalomra az, hogy a fel nem derített kölcsönhatások igen széles skálájáról fogalmunk sincsen.
Ennek ellenére több száz, az ipari folyamatok javítását célzó projektben kezdték már el használni a nanotechnológiát. Többek között kifejezetten arra is, hogy a már meglévő szennyezéstípusok ellen felvegyék a harcot. Pár példa:
• Széles körben kutatják, hogy a nanorészecskéket miként lehetne felhasználni a környezetbe jutott különféle mérgező anyagok kezelésére, semlegesítésére és eltávolítására Az oxidálószerek, redukálószerek és egyéb aktív anyagok nanorészecskés formái ígéreteseknek tűnnek, mivel igen sokféle nemkívánatos anyagot képesek lehetnek átalakítani. A fényre aktiválódó nanorészecskék (például a titán-dioxid és a cink-oxid változatai) képesek megkötni és eltávolítani szerves mérgeket, és önmagukban csak kevéssé mérgezőek.{476} A cink-oxid nanorészecskék kiemelten erőteljes katalizátornak bizonyultak a klórozott fenolok ártalmatlanításában. Ezek a nanorészecskék érzékelőkként és katalizátorokként is működnek, és meg lehet tervezni őket úgy, hogy csak a célzott szennyező anyagot alakítsák át.
• A nanoszűrős víztisztító hártyák drámaian nagyobb hatékonysággal képesek kiszűrni az apró szennyező részecskéket a vízülepítő medencékkel és szennyvíztisztító anyagokkal dolgozó hagyományos módszereknél. A tervezett katalízisű nanorészecskék magukba tudják szívni és el tudják távolítani a szennyeződéseket. A mágneses elválasztás segítségével aztán ezek a nanoanyagok újra felhasználhatóak lesznek, tehát nem válnak szennyező anyaggá. A számos példa közül vegyük szemügyre a nanoméretű alumínium-szilikátos (zeolitos) molekuláris szitákat, melyeket a szénhidrogének kontrollált oxidálására fejlesztenek ki! (Például az eljárást, amely a toluént nem mérgező benzaldehiddé alakítaná.){477} Ez a módszer kevesebb energiát igényel, továbbá lecsökkenti a kevésbé hatékony fotoreakciók és a keletkező hulladék mennyiségét.
• Széles körű vegyipari kutatások folynak katalizátornak és katalizátortámogatónak alkalmas nanotermelt kristályos anyagok kifejlesztésére. Ezek a katalizátorok növelhetnék a kémiai előállítás hatásfokát, csökkenthetnék a mérgező melléktermékek mennyiségét, és eltávolíthatnák a szennyeződéseket.{478} Például az MCM–41 nevű anyagot az olajiparban az olyan ultrafinom szennyeződések eltávolítására használják, melyeket a többi szennyeződéscsökkentő módszer nem vesz észre.
• Becslések szerint a nanokompozitok szerkezeti anyagként való széles körű felhasználása az autókban évente 1,5 milliárd literrel csökkenthetné a benzinfogyasztást, ami évente akár ötmilliárd kilóval mérsékelhetné a szén-dioxid-kibocsátást más, környezetileg hasznos tulajdonsága mellett.
• A nanorobotika a nukleáris hulladék kezelésében is segítségünkre lehet. A nanoszűrők a nukleáris tüzelőanyag kezelésekor szétválaszthatják az izotópokat. A nanofolyadékok javíthatják a nukleáris reaktorok hűtésének hatékonyságát.
• A nanotechnológia alkalmazása az otthoni és az ipari világításban csökkentheti az elektromos áram felhasználását, és becslések szerint éves szintén mintegy kétszázmillió tonnával a széndioxid-kibocsátást is.{479}
• Az önösszeállító elektromos készülékek (például az önelrendező biopolimerek) tökéletesítésével kevesebb energiát emésztene fel a gyártásuk, és kevesebb mérgező melléktermékkel járna, mint a hagyományos félvezető-gyártási módszerek.
• Az új, nanocsőalapú téremissziós kijelzőket (field-emission display-t, FED) használó új számítógépes monitorok sokkal jobb tulajdonságaik mellett kiküszöbölnék a hagyományos kijelzőkre jellemző nehézfémek és egyéb mérgező anyagok felhasználását.
• A kétfémes nanorészecskék (például a vas/palládium vagy a vas/ezüst) hatékony redukálószerek és katalizátorok lehetnek a poliklórozott bifenilek, a rovarirtószerek és a halogénezett szerves oldószerek esetében.{480}
• A nanocsövek hatékony dioxinelnyelőnek tűnnek, és lényegesen jobb teljesítményt nyújtottak e téren, mint a hagyományos aktív szén.{481}
Ez csak egy kis mintavétel a potenciálisan környezetbarát hatású nanotechnikai alkalmazások kapcsán pillanatnyilag folyó kutatásokból. Ha képessé válunk továbblépni az egyszerű nanorészecskéken és nanorétegeken, és összetettebb rendszereket tudunk létrehozni az irányított molekuláris nano-összeállítással, nagyszámú apró, intelligens készüléket alkothatunk, melyek viszonylag összetett feladatok elvégzésére is képesek. A környezet megtisztítása egyértelműen ezek közé a feladatok közé tartozik.
Nanobotok a vérkeringésben
„A nanotechnológia eszközt adott a kezünkbe… hogy a természet végső játékkockáival, az atomokkal és a molekulákkal játszhassunk. Minden ebből épül fel… Korlátlannak tűnik az új dolgok létrehozásának lehetősége.”
(Horst Störmer Nobel-díjas kutató)
„A nanogyógyászati beavatkozások nettó hatása a biológiai öregedés minden aspektusának leállítása mellett kiterjed arra is, hogy a páciens testének adott biológiai állapotát – a „korát” – az általa kívánt új biológiai állapotra – „új életkorra” – cseréljük. Ezáltal elvágja a naptár szerint eltelt idő és a biológiai egészség közti kapcsot. Jó néhány évtized múlva mindennaposak lehetnek az efféle beavatkozások. Az éves vizsgálatok és tisztítókúrák, és néhány nagyobb javítás elég lesz ahhoz, hogy a biológiai korunkat évente egyszer visszaállítsák arra a nagyjából azonos fiziológiai korra, amit választunk. Persze balesetben még mindig meghalhatunk, de legalább tízszer olyan hosszú ideig élünk majd, mint jelenleg.”
(Robert A. Freitas Jr.){482}
A gyártásban tapasztalható precíz molekuláris irányításra az egyik legjobb példa a több milliárd nanobot munkába állítása. A parányi robotok akkorák, mint az emberi vérsejtek, vagy még kisebbek, és a véráramban közlekedhetnek. Ez az elképzelés nem olyan futurisztikus, mint elsőre hinnénk: a koncepció már túl van a sikeres állatkísérleteken, és számos hasonlóan mikroméretű készülék működik már állatokban. A BioMEMS (biológiai mikroelektronikai-mechanikus rendszerek) témájában már legalább négy nagyobb konferencia foglalkozott az emberi véráramban használható készülékekkel.{483}
Gondoljunk a nanobot-technológia megannyi példájára, amelyek a miniatürizációt és a költségcsökkentési trendeket alapul véve úgy huszonöt éven belül megvalósulhatnak! Amellett, hogy az emberi agy vizsgálatával talán sikerül megfejtenünk a felépítését és működését, a nanobotokat sokféle diagnosztikai és terápiás célra is használhatjuk.
Robert A. Freitas Jr., a nanotechnológia elméletének egyik úttörője és a nanogyógyászat (azaz a biológiai rendszereink molekuláris méretű konstrukciók segítségével történő átkonfigurálása) egyik fő támogatója és az azonos című könyv szerzője{484} olyan robotokat tervezett, melyek lecserélhetnék az emberi vértesteket, és több százszor vagy több ezerszer hatékonyabbak lehetnének biológiai megfelelőiknél. Freitas respirocitái (robotvörösvértestei) segítségével egy futó lélegzetvétel nélkül tizenöt percen át bírná az olimpiai sprintet.{485} Freitas robotmakrofágjai, a „mikrobafalók”, a saját fehérvérsejtjeinknél sokkal hatékonyabban vennék fel a küzdelmet a kórokozók ellen.{486} DNS-javító robotjai képesek lennének kijavítani a DNS-másolási hibákat, vagy esetleg szükség szerint megváltoztatni a DNS-t. Felvetett más gyógyászati robotokat is, amelyek tisztítanának, eltávolítanák a nemkívánatos szemetet és vegyületeket (például a prionokat, a torzult fehérjéket és a protofibrillumokat) az egyes emberi sejtekből.
Freitas számos különböző gyógyászati nanorobot (ő maga ezt a kifejezést részesíti előnyben) részletes koncepcionális tervét vázolta fel, és jó néhány megoldást is csatolt hozzájuk a létrehozataluk kapcsán felmerülő különféle tervezési nehézségek leküzdésére. Például vagy egy tucat megközelítést javasol az irányított mozgás megoldására,{487} ezek némelyike olyan biológiai példákat vesz alapul, mint a csillószőrök. Ezekről az alkalmazásokról bővebben írok még a következő fejezetben.
George Whiteside arról panaszkodott a Scientific American lapjain, hogy „még ha készíteni is tudnánk a nanoméretű tárgyaknak propellert, akkor is új és komoly problémával kellene szembenéznünk: azzal, hogy véletlenszerűen nekiütközik egy vízmolekulának. Ezek a vízmolekulák kisebbek lennének ugyan a nano-tengeralattjárónknál, de nem sokkal”.{488} Whiteside elemzése alapvető félreértésből származik. Minden gyógyászati nanobotterv, beleértve Freitas terveit is, legalább tízezerszer akkora, mint egy vízmolekula. Freitas és mások elemzései kimutatták, hogy a környező molekulák Brown-mozgásának hatása nem lenne jelentős. A nanoméretű gyógyászati robotok valójában tízezerszer stabilabbak és pontosabbak lennének a vérsejteknél és a baktériumoknál.{489} Érdemes azt is megjegyezni, hogy a gyógyászati nanobotoknak nem lenne szükségük kiterjedt biológiai sejthálózatra, hogy fenntartsanak olyan anyagcserés folyamatokat, mint az emésztés vagy a lélegzés. Nem lenne szükségük biológiai reprodukciós rendszerekre sem.
Bár Freitas koncepcióit még pár évtizedig nem tudjuk megvalósítani, máris jelentős előrelépések történtek a véráramba juttatható készülékek terén. A chicagói Illinois-i Egyetem kutatói például patkányokban sikeresen gyógyították az 1-es típusú cukorbetegséget hasnyálmirigy-szigetsejteket tartalmazó, nanotervezett gépezettel.{490} A készüléken hét nanométer átmérőjű pórusok engedik ki az inzulint, de nem engedik be azokat az antitesteket, amelyek elpusztítanák az inzulint termelő sejtet. Számos hasonló típusú innovatív projekten is dolgoznak még.
MOLLY 2004: Oké, szóval ott lesz ez a rengeteg nanobot a vérkeringésemben. Most akkor azon kívül, hogy órákon át ülhetek a medence alján, mire is jó ez nekem?
RAY: Megőrzi az egészségedet. Elpusztítják a kórokozókat: a baktériumokat, a vírusokat, a rákos sejteket, és nem esnek az immunrendszer számos csapdáinak egyikébe sem, például nem váltanak ki autoimmun-reakciót. A biológiai immunrendszereddel ellentétben ezeknek megmondhatod, ha nem tetszik, amit csinálnak.
MOLLY 2004: Mármint e-mailezhetek a nanobotjaimnak? Hogy helló, nanobotocskák, ne pusztítsátok már el a baktériumokat a bélrendszeremben, mert igazából azok jót tesznek az emésztésemnek?
RAY: Igen, ez jó példa. Te irányítod majd a nanobotjaidat. Kommunikálnak egymással és az internettel. Már ma is vannak idegi implantátumok, például a Parkinson-kórra, amelyek megengedik, hogy a beteg új szoftvert töltsön le rájuk.
MOLLY 2004: Ez kicsit súlyosbítja az egész szoftvervírus dolgot is, nem? Most, ha bekapok egy durva szoftveres vírust, le kell futtatnom egy vírusirtó programot, és fel kell töltenem a fájljaimról a biztonsági mentést, de ha a vérkeringésemben lévő nanobotok rossz üzenetet kapnak, elkezdhetik elpusztítani a saját vérsejtjeimet…
RAY: Ez is csak újabb ok arra, hogy miért dönts inkább robotvérsejtek mellett, de értem, mire akarsz kilyukadni. Ám ez nem új keletű probléma. Már most 2004-ben is léteznek olyan kritikus szerepet betöltő szoftveres rendszerek, amelyek intenzív osztályokat látnak el, a sürgősségi szolgálatok rendszerét irányítják, atomerőműveket vezérelnek, repülőgépeket tesznek le a földre, és rakétákat irányítanak. A szoftverbiztonság tehát már most is elengedhetetlen.
MOLLY 2004: Igen, de valahogy sokkal aggasztóbbnak tűnik, hogy a testemben és az agyamban fusson egy szoftver. A saját személyi számítógépemen naponta száznál is több spam üzenetet kapok, és ebből jó néhányban kártékony vírusok rejlenek. Nem tartom megnyugtatónak, hogy a testemben lévő nanobotokat is megfertőzheti egy szoftveres vírus…
RAY: Úgy gondolsz rá, mint a hagyományos internetelérésre. A VPN-ekkel, azaz a privát hálózatokkal már ma is képesek vagyunk biztonságos tűzfalak létrehozására, máskülönben képtelenség lett volna megalkotni ezeket a kritikus fontosságú rendszereket. Meglehetősen jól működnek, és az internet biztonsági technológiái is fejlődni fognak.
MOLLY 2004: Azt hiszem, nem mindenki értene egyet azzal, hogy ennyire bízol a tűzfalakban.
RAY: Valóban nem tökéletesek, és soha nem is lesznek azok, de még jó néhány évtized kell ahhoz, hogy kiterjedt szoftverek fussanak a testünkben és az agyunkban.
MOLLY 2004: Oké, de addig a vírusírók is tökéletesítik a mesterségüket!
RAY: Feszült szembenállás lesz, az biztos. De a rendszer ma is láthatóan több előnnyel jár, mint kárral.
MOLLY 2004: Ez miből is látszik?
RAY: Például senki sem jön azzal, hogy be kéne zárnunk az internetet, mert a szoftvervírusok annyi problémát okoznak.
MOLLY 2004: Ebben igazad van.
RAY: Ha a nanotechnológia beérett, képes lesz megoldani a biológia problémáit azzal, hogy legyőzi a biológiai kórokozókat, elpusztítja a méreganyagokat, kijavítja a DNS hibáit, és visszafordítja az öregedés egyéb forrásait. Szembe kell majd néznünk persze azokkal az új veszélyforrásokkal, amelyeket magával hoz, ahogy az internet is magával hozta a szoftvervírusok kockázatát. Ezek közt az új problémák közt ott lesz az irányíthatatlanul szaporodó nanoeszközök veszélye is, nem csak a sokoldalú, egyenletes eloszlásban jelen lévő nanobotokat irányító szoftver biztonsága.
MOLLY 2004: Azt mondtad, visszafordítja az öregedést?
RAY: Látom, kezded megérteni az egyik legfőbb előnyt.
MOLLY 2004: Pontosan hogyan is csinálnák ezt a nanobotok?
RAY: Tulajdonképp a nagyját a biotechnológia fogja elérni olyan módszerekkel, mint az RNS-interferencia, ami lekapcsolja a romboló géneket; az egyének genetikai kódját megváltoztató génterápia; a sejtek és szövetek regenerálására kifejlesztett terápiás klónozás; az okos gyógyszerek, amelyek átprogramozzák az emberi anyagcsere szokásait; és számtalan más, fejlesztés alatt álló technika. De amit a biotechnológia esetleg nem tudna megoldani, azt képesek leszünk nanotechnológiával véghezvinni.
MOLLY 2004: Például?
RAY: A nanobotok a véráramban keringve ki-be juthatnak a sejtekbe, és számos feladatot elvégezhetnek, például eltávolíthatják a méreganyagokat, kitakaríthatják a szemetet, kijavíthatják a DNS-hibákat, megjavíthatják és helyreállíthatják a sejthártyákat, visszafordíthatják az ateroszklerózist, módosíthatják a hormonszintet, a neurotranszmittereket és az anyagcsere egyéb fontos vegyületeit, és végrehajthatnak számtalan más feladatot is. Az öregedés minden egyes folyamatára fel tudunk állítani olyan nanobotprotokollt, amely visszafordíthatja az adott folyamatot az egyes sejtek, a sejtrészek, a molekulák szintjén.
MOLLY 2004: Tehát akár a végtelenségig fiatalok maradhatunk?
RAY: Pontosan.
MOLLY 2004: Mit mondtál, mikor is kaphatom meg?
RAY: Azt hittem, aggódsz a nanobottűzfal miatt!
MOLLY 2004: Persze, persze, de ráérek azon aggódni, nem? Szóval mennyit kell még erre várnom?
RAY: Úgy húsz-huszonöt évet.
MOLLY 2004: Most huszonöt vagyok, szóval akkor nagyjából negyvenöt leszek, és annyi is maradok?
RAY: Nem egészen. Drasztikusan lelassíthatod az öregedést már azzal is, amit most tudunk. Tíz-húsz éven belül a biotechnológiai forradalom jóval tovább lassíthat, és számos esetben vissza is fordíthat egyes betegségeket és öregedési folyamatokat. Szó sincs róla, hogy közben sem történik semmi! Évről évre jobb technikáink lesznek, és gyorsul a folyamat. Aztán a nanotechnológia befejezi a munkát.
MOLLY 2004: Persze, persze, neked nehezedre is esne befejezni egy mondatot a „gyorsul” szó használata nélkül. Szóval mi is lesz a biológiai korom, mire odáig jutunk?
RAY: Szerintem valahol a harmincas éveidben jársz majd, és egy időre ott is maradsz.
MOLLY 2004: A harmincas éveim egész jól hangzanak. Azt hiszem, amúgy is jó lenne kicsit érettebbnek lenni ennél a huszonötnél. De mit értesz az alatt, hogy „egy időre”?
RAY: A megállítás és a visszafordítás csak az út eleje. A nanobotok segítségével elért egészség és a hosszú élet csak a kezdeti fázisa annak, hogy a nanotechnológia és az intelligens számítástechnika bekerül a testünkbe és az agyunkba is. Jóval komolyabb hatást gyakorol majd ránk az, hogy miképp javítjuk fel a gondolkodás folyamatát az egymással és a biológiai neuronokkal is kommunikálni képes nanobotokkal. Ha a nem biológiai intelligencia megtapad, úgymond, az agyunkban, alkalmazható lesz rá a gyorsuló megtérülés törvénye, és mindez exponenciálisan bővül. A biológiai gondolkodásunk ezzel ellentétben egy szinten stagnál.
MOLLY 2004: Már megint a gyorsulásról beszélsz, de ha ez valóban beindul, akkor a biológiai neuronokkal végzett gondolkodás elég triviálisnak tűnhet mellette…
RAY: Helyes észrevétel.
MOLLY 2004: Tehát a jövő Miss Mollyja mikor is dobja el a biológiai testét és agyát?
MOLLY 2104: Ugye nem szeretnéd, hogy előre eláruljam, mi történik veled a jövőben? Különben is, ez nem teljesen pontos kérdés.
MOLLY 2004: Miért is nem?
MOLLY 2104: A 2040-es években kifejlesztettük a módszert arra is, hogy azonnal alkossunk, akár biológiai, akár nem biológiai részeket magunkból. Egyre inkább egyértelművé vált, hogy a valódi természetünk információmintázat, de ennek ellenére meg kellett valahogy jelennünk fizikai formában is. Ám ezt a fizikai formát könnyedén váltogathattuk.
MOLLY 2004: Hogyan?
MOLLY 2104: Az új, nagy sebességű MNT-gyártás segítségével könnyen és gyorsan áttervezhettük a fizikai megjelenésünket. Lehetségessé vált, hogy egyszer legyen biológiai testem, egyszer ne, aztán megint igen, majd azt megváltoztassam és így tovább.
MOLLY 2004: Azt hiszem, követem a dolgot.
MOLLY 2104: Az a lényeg, hogy kedvem szerint választhattam: van-e biológiai agyam és/vagy testem, vagy nincs. Szó sincs olyasmiről, hogy végleg eldobnánk akármit is, visszavehetünk bármit, amit eldobtunk.
MOLLY 2004: Még mindig csinálsz ilyesmit?
MOLLY 2104: Van, aki még mindig csinálja, de 2104-ben kicsit már idejétmúlt. Úgy értem, a szimulált biológia teljességgel megkülönböztethetetlen a valódi biológiától, szóval miért vacakoljunk a fizikai példányosulással?
MOLLY 2004: Aha, csak vacakol vele az ember, mi?
MOLLY 2104: Pontosan.
MOLLY 2004: Azért azt meg kell hagyni, furcsa lehet, ha az ember meg tudja változtatni a fizikai megtestesülését. Mármint akkor hol a te… az én… folyamatosságom?
MOLLY 2104: Ugyanott, ahol 2004-ben volt. Így is folyamatosan változnak a részecskéid, nem? Csak az információs mintázatodban van folyamatosság.
MOLLY 2004: De 2104-ben az információs mintázatodat is könnyen meg tudod változtatni. Én erre nem vagyok képes.
MOLLY 2104: Valójában nem olyan más ez sem. Te is változtatsz a mintázatodon, a memóriádon, a tudásodon, a tapasztalataidon, idővel még a személyiségeden is, de ott a folytonosság, mert az egész magja csak fokozatosan változik.
MOLLY 2004: De azt hittem, egyik pillanatról a másikra drámaian meg tudod változtatni a külsődet és a személyiségedet is.
MOLLY 2104: Igen, de ezek csak felszíni változások. Az igazi magvam csak lassan változik, épp úgy, ahogy akkor tette, amikor még te voltam 2004-ben.
MOLLY 2004: Nem mondom, sokszor örülnék neki, ha azonnal megváltoztathatnám a felszíni megjelenésemet!
Robotika: erős mesterséges intelligencia
„Vegyük Turing egy másik állítását! Eddig csak viszonylag egyszerű és kiszámítható készülékeket építettünk. Amikor növeljük gépeink komplexitását, érhetnek minket meglepetések.
Turing a hasadóanyagok példáját említi. Ahogy egyre nagyobb kupac hasadóanyagot halmozunk egymásra, egy adott »kritikus« méret alatt semmi különös nem történik, de afölött hirtelen beindul a nemulass. Talán így van ez az agyakkal és a gépekkel is. A legtöbb emberi agy és gép jelenleg a kritikus tömeg alatti („szubkritikus”) – nehézkesen és érdektelen módon reagálnak a bejövő ingerekre, nincsenek saját ötleteik, csak jól ismert válaszokat képesek adni –, de néhány jelenlegi agy a kritikus szint felett van, és a saját minőségében sziporkázik – ahogy talán a jövőben néhány gépre is jellemző lesz ez. Turing azt akarja mondani, hogy az egész csak komplexitás kérdése, és hogy egy bizonyos komplexitási szint felett minőségi ugrás történik: a kritikus szintet elérő gépek egészen mások lesznek az eddig elképzelt, egyszerű masináknál.”
(J. R. Lucas, oxfordi filozófus 1961-es
„Elmék, gépek és Gödel” című esszéjében){491}
„Amennyiben a szuperintelligencia egy nap elképzelhetővé válik, az a kérdés, hogy az emberek ki akarják-e majd fejleszteni. A kérdésre adott válasz szinte bizonyosan igen. A szuperintelligenciához vezető minden lépés hatalmas gazdasági haszonnal kecsegtet. A számítógépipar hatalmas összegeket ruház be a hardverek és szoftverek következő generációiba, és ezt meg is teszi egészen addig, amíg versenyhelyzetbe van kényszerítve és profitot termelhet. Az emberek jobb gépekre és okosabb szoftverre vágynak, és élni akarnak az ezen gépek által létrehozott előnyökkel. Jobb orvosságokkal, az emberek felszabadításával az unalmas vagy veszélyes munkák alól, a szórakozással – se vége, se hossza a fogyasztói előnyöknek. A mesterséges intelligencia fejlesztése mögött erős katonai indíték is húzódik. És az úton sehol sem találunk olyan természetes pontot, ahol azt kellene mondanunk, »eddig és ne tovább!«, ahogyan a technofóbiások állítják.”
(Nick Bostrom, „Mikor jön el a szuperintelligencia?”, 1997)
„Nehéz elképzelni olyan problémát, amelyet egy szuperintelligencia ne tudna megoldani, vagy legalábbis ne tudna segíteni a megoldásában. A betegség, szegénység, környezetszennyezés, mindenféle felesleges szenvedés mind olyan dolgok, amelyeket egy fejlett nanotechnológiával ellátott szuperintelligencia képes eltörölni. Továbbá egy szuperintelligencia végtelen élettartamot biztosíthat nekünk: vagy az öregedés nano-orvostudomány általi megállításával és visszafordításával, vagy a lehetőség által, hogy feltölthetjük magunkat. Egy szuperintelligencia lehetőségeket nyújthat nekünk arra, hogy nagyban megnöveljük intellektuális és érzelmi képességeinket, és segíthet megteremteni egy nekünk tetsző tapasztalati világot, amelyben életünket boldog játéknak, az egymással való viszonyainknak és tapasztalásainknak, a személyes fejlődésünknek és ideáljaink elérésének szentelhetjük.”
(Nick Bostrom, „A fejlett mesterséges intelligenciával kapcsolatban felmerülő etikai kérdések”, 2003)
„A robotoké lesz a Föld? Igen, de a robotok a mi gyermekeink lesznek.”
(Marvin Minsky, 1995)
A szingularitás mögött húzódó három alapvető forradalom („G”, „N” és „R”) közül a legnagyobb jelentőségű az „R”, ami a felerősített embereket meghaladó nem biológiai intelligencia megszületésére utal. Az intelligensebb folyamatok lényegében legyőzik a kevésbé intelligenst, az intelligenciát téve meg az univerzum leghatalmasabb vezérelvének.
Míg a GNR „R”-je a robotikát jelenti, a valódi kérdés az erős mesterséges intelligencia (az emberi intelligenciát meghaladó intelligencia) létrejötte. A robotika hangsúlyozása csak azért érdekes, mert az intelligenciámnak testre is szüksége van, egy fizikai jelenlétre ahhoz, hogy kapcsolatba léphessen a világgal. Nem értek egyet azonban a fizikai jelenlét hangsúlyozásával, mert úgy hiszem, a központi probléma az intelligencia. Az intelligencia végül így vagy úgy hatással lesz a világra, beleértve azt, hogy megteremti saját módszereit a megtestesülésre és fizikai manipulációra. Továbbá a fizikai képességeket intelligenciánk alapvető részéhez sorolhatjuk; az emberi agy nagy része például (a kisagy, amely neuronjaink több mint felét tartalmazza) fizikai képességeink és izmaink irányításával van elfoglalva.
Az emberi szintű mesterséges intelligencia több okból is szükségszerűen nagyban meghaladja majd az emberi intelligenciát. Mint már korábban felhívtam rá a figyelmet, a gépek képesek azonnali ismeretmegosztásra. Mi, tovább nem fejlesztett emberek, nem tudjuk megosztani a tudásunkat, ismereteinket és képességeinket alkotó idegsejtek közötti kapcsolataink és ingerületátvivő anyagaink szerteágazó mintáit, hacsak nem a lassú nyelvi kommunikáció útján. Persze még ez a módszer is rendkívül hasznos, mivel megkülönböztetett minket az állatoktól, és ez tette lehetővé a technológia megszületését.
Az emberi képességek csak olyan módokon fejlődhetnek, amelyek evolúciós támogatást nyernek. Azok a képességek, amelyek elsősorban masszívan párhuzamos mintafelismerésre alapulnak, kiváló eredményeket biztosítanak bizonyos feladatokban, mint az arcfelismerésben, tárgyak azonosításában és a nyelvi hangok megismerésében. De nem előnyösek mások esetén, például pénzügyi adatok mintáinak meghatározásában. Ha egyszer teljes mértékben megtanuljuk kezelni a mintafelismerési paradigmákat, a gépi módszerek alkalmazhatják ezeket a technikákat akármilyen mintatípusra.{492}
A gépek olyan módokon tudják egyesíteni az erőforrásaikat, ahogyan az emberek nem képesek rá. Bár emberek csoportjai képesek olyan mind fizikai, mind mentális tettekre, amelyekre egyénenként nem, a gépek könnyebben és gyorsabban akkumulálják számítástechnikai, memória- és kommunikációs erőforrásaikat. Mint már korábban is tárgyaltam, az internet a számítási erőforrások egész világot átérő hálójává fejlődik, amelyet azonnal egyesíteni lehet masszív szuperkomputerek létrehozásához.
A gépeknek kérlelhetetlenül pontos memóriájuk van. A mai számítógépek több milliárd tényt tudnak pontosan kezelni, és ez a képesség minden évben megduplázódik.{493} A számítástechnika általános sebessége és ár–teljesítmény-aránya is évente hasonló ütemben javul, és a megkettőződés mértéke is gyorsul.
Az emberi tudás webre való vándorlásával a gépek képesek lesznek elolvasni, megérteni és összegezni minden emberi-gépi információt. A biológiai emberek utoljára több száz évvel ezelőtt voltak képesek egyénileg befogadni az emberi tudományos ismeretek összességét.
A gépi intelligencia másik előnye az, hogy konzekvensen és a csúcson teljesít, és képes a csúcsképességeket kombinálni. Az emberek közül egy személy mesteri módon szerez zenét, míg a másik a tranzisztortervezéshez ért, de az emberi agy merev architektúráját tekintve nincsen kapacitásunk (vagy időnk) minden, egyre inkább specializálódó területen a legmagasabb szintű képességet kifejleszteni és alkalmazni. Az emberek ezen túl az adott képességek tekintetében is nagyban különböznek, így hát, amikor mondjuk az emberi zeneszerzőkről beszélünk, Beethovenre vagy egy átlagemberre gondolunk? A nem biológiai intelligencia képes lesz elérni és meghaladni az emberi képességek csúcsát az élet minden területén.
Ezekből az okokból kifolyólag, ha egy számítógép egyszer képes lesz reprodukálni az emberi intelligencia kifinomultságát és széles tartományát, szükségszerűen túl is szárnyalja majd azt, és folytatja hatványozottan exponenciális emelkedését.
A szingularitással kapcsolatos alapvető kérdés az, hogy vajon a „tyúk” (erős mesterséges intelligencia) vagy a „tojás” (nanotechnológia) jön-e először. Más szóval az erős mesterséges intelligencia teljes nanotechnológiához vezet majd (molekuláris összeszerelők formájában, amelyek az információt fizikai termékké alakítják), vagy a teljes nanotechnológiából következik majd az erős mesterséges intelligencia? Az első elképzelés logikája azon alapszik, hogy az erős mesterséges intelligencia emberfeletti mesterséges intelligenciával jár együtt a fenti okok miatt, és az emberfeletti mesterséges intelligencia olyan helyzetbe kerül, ahol megoldhatja az összes fennmaradó mérnöki problémát, amelyek gátolják a teljes nanotechnológia megszületését.
A második elképzelés azon a felismerésen alapul, hogy az erős mesterséges intelligencia hardverkövetelményeit a nanotechnológiai alapú számítástechnika tudja majd kielégíteni. Így a szoftveres követelményeket is nanobotok teljesítik majd, amelyek nagy felbontású felvételeket készíthetnek majd az emberi agy működéséről, és befejezhetjük az emberi agy mérnöki visszafejtését.
Mindkét előfeltevés logikus, és nyilvánvaló, hogy mindkét technológia segíthet a másiknak. A valóság az, hogy mindkét fejlesztési terület szükségszerűen kihasználja majd a legfejlettebb eszközeinket, így az egyes területek fejlesztése egyidejűleg gerjeszti a másikét is.
Azonban azt hiszem, hogy a teljes MNT (molekuláris nanotechnológia) az erős mesterséges intelligencia előtt fog megszületni, habár csak néhány évvel (a nanotechnológia 2025 körül, az erős mesterséges intelligencia 2029 körül).
Amilyen forradalmi lesz a nanotechnológia, az erős mesterséges intelligencia sokkal mélyrehatóbb következményekkel jár majd.
A nanotechnológia nagy hatású terület, de nem feltétlenül intelligens. Tudunk olyan megoldásokat tervezni, melyek legalább kezelhetik a nanotechnológia hatalmas lehetőségeit, de a szuperintelligenciát nem tudjuk belülről irányítani.
Az elszabadult MI. Ha egyszer megszületik az erős mesterséges intelligencia, azonnal továbbfejleszthető lesz, és képességei megsokszorozhatóak, hiszen ilyen a gépi képességek alapvető természete. Amint az egyik erős MI elkezd sok másik mesterséges intelligenciát gyártani, az utóbbiak már képesek lesznek megérteni és továbbfejleszteni a saját felépítésüket, és így gyorsan egy sokkal nagyobb kapacitású, sokkal intelligensebb mesterséges intelligenciává fejlődni, és ez a körforgás akármeddig folytatódhat. Az egyes ciklusok nemcsak hogy egy sokkal intelligensebb mesterséges intelligenciát hoznak létre, de mind kevesebb időbe kerülnek majd, mint az azt megelőző ciklusok, ahogy az már a technológiai evolúciónál (vagy bármilyen evolúciós folyamatnál) lenni szokott. Egyesek azt jósolják, hogy ha egyszer az erős MI megszületik, azonnal elszabadul, és a sebesen fejlődő szuperintelligencia gyorsvonata elhúz a messzeségbe.{494}
A saját elképzelésem egy kissé különbözik ettől. Az elszabadult mesterséges intelligencia logikája legitim elképzelés, ám át kell gondolnunk az időkereteket!
A gondolkodás emberi szintjének elérése nem fog azon nyomban létrehozni egy ilyen láncát letépett jelenséget. Vegyük azt, hogy az intelligencia emberi szintjének megvannak a maga korlátai. Erre most is találunk példát – körülbelül hatmilliárdot. Képzeljünk el egy olyan forgatókönyvet, amelyben kiveszünk száz embert egy bevásárlóközpontból! Ez a csoport viszonylagosan képzett és tanult emberek mintacsoportja. Ám ha ezt a csoportot azzal a feladattal bíznánk meg, hogy fejlesszék tovább az emberi intelligenciát, nem jutnának túl messzire, még ha segítségül meg is kapnák az emberi intelligencia sablonjait. Valószínűleg még egy egyszerű számítógépet is nehezen hoznának össze. A száz ember gondolkodásának felgyorsítása és memóriakapacitásuk megnövelése sem oldaná meg azonnal a problémát.
Már fentebb kifejtettem, hogy a gépek minden területen elérik (és gyorsan meg is haladják) az emberi képességek csúcsát. Ezért az előző példa helyett vegyünk száz tudóst és mérnököt! Egy megfelelő háttérrel rendelkező, szakmailag képzett ember képes volna fejleszteni a meglévő felépítést. Ha egy gép száz (majd ezer, aztán végül egymillió) műszakilag képzett embernek megfelelő intelligenciát ér el, és a biológiai embereknél sokkal gyorsabban fejlődik, az az intelligencia egyre sebesebb változását vonná maga után.
Azonban ez a felgyorsult fejlődés nem jön létre azonnal, amint egy számítógép átmegy a Turing-teszten. A Turing-teszt egy átlagos művelt ember képességeihez hasonlítható, és ezért közelebb áll a bevásárlóközpontos példánkban található emberekhez. A számítógépeknek időre lesz szükségük ahhoz, hogy minden apró képességet megtanuljanak, és hogy ezeket párosítsák a megfelelő tudásbázisokkal.
Amint megalkotjuk az első gépet, amely átmegy a Turing-teszten (2029 körül), az azt követő időszak a konszolidációról fog szólni, amikor is a nem biológiai intelligencia sebes fejlődésbe kezd. Azonban a szingularitással járó soha nem látott expanzió, amelyben az emberi intelligencia megmilliárdszorozódik, nem történik meg a 2040-es évek közepéig (lásd a harmadik fejezetet).
A mesterséges intelligencia tele
„Létezik az az ostoba mítosz, hogy a mesterséges intelligencia megbukott, pedig a mesterséges intelligencia a nap minden másodpercében körülvesz bennünket. Egyszerűen csak nem vesszük észre. MI-rendszereket találunk az autókban – ezek hangolják az üzemanyag-befecskendezés paramétereit. Amikor egy repülőgéppel leszállunk, a megfelelő kaput egy forgalomszervező mesterségesintelligencia-rendszer választja ki. Mindig, amikor egy Microsoft szoftvert használunk, egy MI-rendszer próbálja kitalálni, mit csinálunk, mint például a levélírás esetén, és egészen kiváló munkát végez. Mindig, amikor megnézünk egy filmet számítógép-animációs karakterekkel, azok a figurák csoportként viselkedő mesterséges intelligenciák. Minden esetben, amikor videojátékkal játszunk, egy MI-rendszer ellen játszunk.”
(Rodney Brooks,
az MIT Mesterséges Intelligencia Laboratóriumának igazgatója){495}
Mindig találkozom olyanokkal, akik szerint a mesterséges intelligencia elenyészett az 1980-as években. Ez az állítás olyan, mintha valaki kötné az ebet a karóhoz, miszerint az internet elpusztult a 2000-es évek elejének dotcom válságában.{496} Az internetes technológiák sávszélessége és ár–teljesítmény-aránya, a noduszok (szerverek) száma és az elektronikus kereskedelem dollárvolumene mind simán átvészelte a válságot, és továbbfejlődött és fejlődik azóta is. Ugyanez igaz a mesterséges intelligenciára.
A paradigmaváltások technológiai robbanásának ciklusa – a vasút, a mesterséges intelligencia, az internet, a telekommunikáció, és most talán a nanotechnológia esetében is – tipikusan az irreális elvárások időszakával kezdődik, amelyek a fejlődést lehetővé tevő tényezők hiányos ismeretéből következnek. Bár az új paradigma felhasználása exponenciálisan növekszik, a korai szakaszban lassan fejlődik, míg el nem éri az exponenciális fejlődési görbe közepét. Míg a forradalmi változásokra vonatkozó várakozások helytállóak, azok időzítése tévedhet. Amikor a jóslatok nem válnak be gyorsan, elérkezik a kiábrándultság időszaka. Ám az exponenciális növekedés töretlenül folytatódik, és évekkel később kezdetét veszi egy érettebb és a valóságnak inkább megfelelő átalakulás.
Ugyanezt láttuk a XIX. század vasúti őrületénél is, amelyet a gazdasági csődök széles hulláma követett. (Történelmi dokumentumgyűjteményemben magam is őrzök néhány ilyen korai, kifizetetlen vasúti kötvényt.) És még mindig érezzük az e-kereskedelem és távközlés évekkel ezelőtt beállt válságait, amelyek recesszióiból csak most lábalunk ki.
A mesterséges intelligencia történetében is hasonló korai optimizmus serkent az olyan programok megszületése nyomán, mint Allen Newell, J. C. Shaw és Herbert Simon 1957-es Általános Problémamegoldója, amely képes volt bizonyításokat találni a Bertrand Russellt és más matematikusokat is zavarba ejtő tételekre, és az MIT Mesterséges Intelligencia Laboratóriumának első programjai, amelyek egyetemi (például analógiákkal és narratív problémákkal kapcsolatos) felvételi kérdésekre válaszoltak egyetemi hallgatók szintjén.{497} A mesterségesintelligencia-vállalatok robbanásszerű elterjedése az 1970-es években kezdődött, ám amikor nem termeltek profitot, az 1980-as években láthattuk a mesterséges intelligencia „válságát”, amit később a „mesterséges intelligencia telének” neveztek el. Több történész is úgy gondolja, hogy a mesterséges intelligencia telével a történet véget ért, és a terület azóta semmilyen új eredménnyel nem jelentkezett.
Ám a mesterségesintelligencia-alkalmazások minden iparág infrastruktúrájában gyökeresen jelen vannak. A legtöbb ilyen program kutatási projektként indult tíz-tizenöt évvel ezelőtt. Amikor az emberek azt kérdezik: „mi a fene történt a mesterséges intelligenciával?”, az arra emlékeztetet, amikor az esőerdőben utazó turisták eltűnődnek, „vajon hol van az a sok faj, ami állítólag itt él?”, miközben a flóra és fauna több száz faja kéznyújtásnyira éli világát, szervesen integrálódva a helyi ökológiába.
Már jócskán a „gyenge MI” korában járunk, amely a korábban emberi intelligenciát igénylő, hasznos és specifikus feladatokat elvégző mesterséges intelligenciára utal, ami egyébként emberi vagy még magasabb szinteken végzi el ezeket a feladatokat. Gyakran a gyenge mesterségesintelligencia-rendszerek is nagyban meghaladják az emberi sebességet, és ugyanakkor lehetővé teszik több ezer változó együttes kezelését. A későbbiekben bemutatom a gyenge mesterséges intelligencia szerteágazó példáit.
A mesterséges intelligencia technológiai ciklusának időkerete (néhány évtizednyi növekvő lelkesedés, egy évtizednyi kiábrándultság, aztán a használat másfél évtizedes elterjedése és megerősödése) hosszadalmasnak tűnhet az internetes és távközlési ciklusok rövid időszakához képest (amelyek években és nem évtizedekben mérhetőek), de nem szabad elfelejtenünk két tényezőt. Először is, az internetes és távközlési ciklusok viszonylag nemrégiben történtek meg, így jobban érintette őket a paradigmaváltások felgyorsulása (lásd az első fejezetet). Az ilyen új keletű adopciós ciklusok (robbanás, válság és fellendülés) sokkal gyorsabban folynak le, mint azok, amelyek negyven éve kezdődtek el. Másodszor pedig, a mesterséges intelligencia forradalma az emberi civilizáció által tapasztalható átalakulások legsúlyosabbika, így később éri el az érettséget, mint a kevésbé komplex technológiák. Az emberi civilizáció, vagy akár az egész földi evolúció legfontosabb és legerősebb képességének, az intelligenciának a megszerzésére törekszik.
A technológia természetéből adódik, hogy először megpróbálunk megérteni valamit, aztán olyan rendszereket alkotunk, amelyek felnagyítják az adott jelenséget. Például a tudósok felfedezték a görbült felületek egyik eddig ismeretlen tulajdonságát, amit a Bernoulli-elvnek neveztek el: egy gáz (mint a levegő) sokkal gyorsabban közlekedik egy görbült, mint egy egyenes felületen. Így a görbült felületen a légnyomás alacsonyabb, mint egy egyenes felület fölött. Eme finom jelenség megfigyelésével és felnagyításával, a következmények számbavételével a mérnökök megalkották a repülést. Ha egyszer megértjük az intelligencia alapelveit, hasonló esélyünk lesz összpontosítani a kapcsolódó képességekre, és felnagyítani azokat.
Mint a negyedik fejezetben már átvettük, az emberi agy megértésének, modellezésének és szimulálásának minden vetülete felgyorsul: az agyleképezés ár–teljesítmény-aránya és időbeli-térbeli felbontása, az agyfunkcióval kapcsolatos adat és tudás felhalmozása, és az agy különböző területeire vonatkozó modellek és szimulációk kifinomultságának a növekedése.
Már van egy nagy hatású eszközkészletünk, ami a mesterségesintelligencia-kutatás eredményeképpen jött létre, és amit több évtizednyi fejlesztés csiszolt tovább. Az agy visszafejtéses projektje nagyban megerősíti majd ezt az eszközkészletet, és közben új, biológiailag ihletett és önszerveződő technikák arzenálját alkotja meg. Végül majd képesek leszünk arra használni a mérnöki tudásunkat, hogy felerősítsük és meghaladjuk az emberi intelligencia száztrillió végtelenül lassú agyi kapcsolatát, amellyel ma mindannyian küzdünk. Ekkor majd az intelligencia teljesen a gyorsuló megtérülések törvényének érvénye alá kerül, amely jelenleg évente megkettőzi az információs technológiák képességeit.
Az egyik alapvető probléma a mesterséges intelligenciával kapcsolatban, amit a kutatási területen eltöltött saját negyven évem során is tapasztaltam, az, hogy amint egy mesterségesintelligencia-megoldás működik, többé nem tekintik mesterséges intelligenciának, hanem új szakterületté ágazik el (például karakterfelismerés, beszédfelismerés, gépi látás, robotika, adatbányászat, orvosi informatika, automatizált befektetés).
A számítógéptudós Elaine Rich úgy határozza meg a mesterséges intelligenciát, mint „annak tudományát, miként lehet a számítógépeket rávenni olyan dolgokra, amelyekben az emberek egyelőre jobbak”. Rodney Brooks, az MIT Mesterséges Intelligencia Laboratóriumának igazgatója másképpen fogalmaz: „Mindig, amikor megértjük egy részét, az egész elveszíti a varázsát, és azt mondjuk: ugyan már, hiszen ez csak számítástechnika!” Ennek kapcsán Watson Sherlock Holmeshoz intézett megjegyzése is eszembe jut: „Először azt hittem, valami ravasz trükk, de már látom, hogy nincs benne semmi különös”.{498} Mesterségesintelligencia-tudósokként a mi tapasztalatunk is hasonló. Az intelligencia varázsa szinte „semmivé” satnyul, amikor teljesen megértjük a működését. További varázst csak az intelligencia eddig még nem ismert működései által kiváltott kíváncsiság képes generálni.
A mesterséges intelligencia eszköztára
„A mesterséges intelligencia olyan technikák tanulmányozása, amelyek exponenciálisan nehéz problémák polinomiális időben való megoldására irányulnak, a problémakörben szerzett ismereteink felhasználásával.”
(Elaine Rich)
Mint azt a 4. fejezetben is említettem, csak mostanában tudtunk megfelelően részletes modellt alkotni arról, hogyan működnek az agyterületek, és ezzel elősegíteni a mesterséges intelligencia tervezését. Azelőtt, a megfelelő nagyításokra képes agyfürkész eszközök hiányában, a mesterségesintelligencia-tudósok csak a saját technikáikra hagyatkozhattak. Mint ahogy a repülőmérnökök sem a madarak repüléséről modellezték az emberi repülést, ezek az első mesterségesintelligencia-módszerek sem a természetes intelligencia visszafejtésén alapultak.
A továbbiakban lássuk ezen megközelítések példáit. Első használatuk óta nőtt a komplexitásuk, ami lehetővé tette olyan gyakorlatias termékek megalkotását, amelyekre nem jellemző a korai rendszerek törékenysége és magas hibaaránya.
Szakértői rendszerek. Az 1970-es években a mesterséges intelligenciát gyakran azonosították egy specifikus módszerrel: a szakértői rendszerekkel. Ebbe beletartozik az emberi szakértők döntéshozatalát szimuláló meghatározott logikai szabályok megalkotása is. Az eljárás alapvető részeként a tudásmérnökök megkérték az adott területek szakértőit, például orvosokat és mérnököket, hogy kodifikálják döntéshozatali szabályaikat.
Tettek korai előrelépéseket ezeken a területeken, mint például az orvosi diagnosztikai rendszerek esetében, amelyek hasonlítottak az orvosokra, legalább korlátozott jellegű vizsgálatokban. Például a MYCIN nevű rendszer, amelynek a célja az volt, hogy felismerje a fertőző betegségeket és javaslatokat adjon a kezelésükre vonatkozóan, az 1970-es években került kifejlesztésre. 1979-ben egy szakértő értékelőcsapat összehasonlította a MYCIN diagnosztikai és javaslattételi teljesítményét az emberi orvosokéval, és kiderült, hogy a MYCIN ugyanolyan jól vagy jobban működött, mint az orvosok.{499}
Ebből a kutatásból nyilvánvalóvá vált, hogy az emberi döntéshozás tipikusan nem definitív logikai szabályokon alapszik, hanem „puha” bizonyítékokon. Az orvosi vizsgálaton jelentkező sötét folt talán rákra utal, de a diagnózist más tényezők is befolyásolják, úgymint a folt pontos alakja, elhelyezkedése és kontrasztja. Az emberi döntésekben alkalmazott megérzéseket általában a korábbi tapasztalatokból származó többféle bizonyíték összeolvasztása adja, melyek közül önmagában egyik sem döntő erejű.
Gyakran nem is vagyunk tudatában annak, milyen szabályokat alkalmazunk.
Az 1980-as évek végére a szakértői rendszerek beolvasztották a bizonytalanság elvét, és a döntéshozatal során sokféle valószínűségi bizonyítékot egyesítettek. A MYCIN-rendszer élen járt ebben a megközelítésmódban. A MYCIN tipikus „szabályai” az alábbiakhoz hasonlítanak:
Ha a kezelésre váró fertőzés meningitis, és a fertőzés gombás típusú, és élő szervezetek nem láthatók a festett kultúrán, és a beteg nem veszélyeztetett gazda, és a beteg coccidiomycosisszal fertőzött területen járt, és a beteg rassza fekete, ázsiai vagy indián és a csf-tesztben a Cryptococcus antigén nem pozitív, akkor 50 százalék esélye van, hogy nem a Cryptococcus okozza a fertőzést.
Bár egyetlen ilyen valószínűségi szabály önmagában nem elegendő egy használható állításhoz, több ezer ilyen szabály kombinálásával fel lehet sorakoztatni a bizonyítékokat, és összesíteni lehet őket megbízható döntések meghozása érdekében.
Valószínűleg a legrégebb óta működő szakértőrendszer-projekt a CYC (mint enCIKlopédikus), amelyet Doug Lenat és kollégái hoztak létre a Cycorpnál. Az 1984-ben indított CYC mindennapos ismereteket kódolt annak érdekében, hogy segítsen felvértezni a gépeket az emberi gondolatok és gondolkodás mögötti kimondatlan feltételezések megértésének képességével. A projekt a fix logikai szabályok helyett már valószínűségi szabályokat használ, és mára képes írott forrásokból ismereteket kinyerni (emberi felügyelettel). Az eredeti cél az volt, hogy megalkossanak egymillió olyan szabályt, amely az átlagember világról alkotott ismereteinek kis részét képezi. Lenat legújabb célkitűzése az, hogy a CYC 2007-ig megtanuljon „100 millió dolgot; körülbelül ezzel a számmal írható le, hogy egy átlagember mit tud a világról”.{500}{13}
Darryl Macer, a Japánban található Cukuba Egyetem biológiatudományi docense egy másik ambíciózus szakértő rendszert épít. Azt tervezi, hogy kifejleszti az összes emberi gondolatot tartalmazó rendszert.{501} Egy ilyen rendszer egyik alkalmazási módja az volna, hogy tájékoztatja a törvényhozást arról, melyik közösség milyen gondolatokat ápol.
Bayes-hálók. Az elmúlt évtizedben a Bayes-logikának nevezett technika lefektette a probabilisztikus szabályok ezrei vagy akár milliói összegzéséhez szükséges matematikai alapokat az úgynevezett „hithálók” vagy Bayes-hálók alkalmazásával. A megközelítést eredetileg az angol matematikus, Thomas Bayes dolgozta ki, de értekezése poszthumusz jelent meg 1763-ban. A módszer arra szolgál, hogy meghatározzuk a jövőbeli események valószínűségét a múlt hasonló eseményei segítségével.{502} Sok, a Bayes-technikán alapuló szakértői rendszer gyűjt adatokat folyamatosan a saját tapasztalataiból, és így folyamatosan tanul és javítja döntéshozatali képességét.
A legígéretesebb spam-szűrők is ezen az elven működnek. Én személy szerint egy SpamBayes nevezetű spam-szűrőt használok, amely önmagát tanítja a „spam” vagy „rendben” jelöléssel ellátott e-mailek alapján.{503} A felhasználó azzal kezdi, hogy megmutat egy spam és egy normál e-mailekkel teli mappát a szűrőnek. Az eszköz ekkor előképzi Bayes vélekedéshálózatát ezen mappák felhasználásával, és elemzi mindkettő mintáit, így lehetővé téve, hogy a további e-maileket automatikusan a megfelelő kategóriába tegye. Az eszköz minden egyes soron következő e-maillel továbbképzi magát, főként amikor a felhasználó kijavítja a hibáit. Ez a szűrő kezelhetővé teszi számomra a spam-helyzetet, ami igazán nem semmiség, hiszen naponta kigyomlál kétszáz-háromszáz spam-üzenetet, és átenged több mint száz „jó” levelet. A „rendben lévőként” azonosított üzeneteknek csak egy százaléka spam; és jó üzeneteket szinte sohasem jelöl meg spamként. A rendszer majdnem olyan pontos, mint én volnék, és persze sokkal gyorsabb nálam.
Markov-modellek. A probabilisztikus hálózatok komplex információsorozatokon való alkalmazásának egyik példája a Markov-modellek használata.{504} Andrej Andrejevics Markov (1856–1922), a híres matematikus, kialakította a „Markov-láncok” elméletét, amelyet később Norbert Wiener (1894–1964) csiszolt tovább 1923-ban. Az elmélet módszert kínált arra, hogyan lehet értékelni a valószínűségét annak, hogy megtörténik-e egy bizonyos eseménysorozat. A modell rendkívül népszerű, például a beszédfelismerésben, ahol a szekvenciális események maguk a fonémák (a beszéd részei). A beszédfelismerésben használt Markov-modellek kódolják az egyes fonémákban található hangok specifikus mintáit, ahogyan a fonémák egymásra hatnak, és a fonémák valószínű sorrendjeit. A rendszer magasabb nyelvi szinten, például a szavak szintjén is működteti a valószínűséghálózatot. A modellben található tényleges valószínűségek a valós emberi beszéden és nyelvi adatokon alapulnak, így a módszer önszerveződő jellegű.
A Markov-modellezés volt az egyik módszer, amit én és kollégáim saját beszédfelismerőrendszer-fejlesztésünkben alkalmaztunk.{505} A fonetikai megközelítésekkel szemben, amelyekben a fonémasorozatokról alkotott meghatározott szabályokat emberi nyelvészek kódolják egyértelműen, mi nem mondtuk meg a rendszernek, hogy az angolban megközelítőleg negyvennégy fonéma található, sem azt, hogy ezek milyen sorozatokban fordulnak elő valószínűbben. Hagytuk a rendszert, hadd fedezze fel ezeket a „szabályokat” magának, több ezer órányi átírt emberi beszédadat alapján. A megközelítés előnye a kézzel kódolt szabályokkal szemben az, hogy a modellek olyan kifinomult valószínűségi szabályokat is kialakítanak, amelyekről az emberi szakértők nem is feltétlenül tudnak.
Neurális hálók. Egy másik, a beszédfelismerésben és egyéb mintafelismerő projektekben használt népszerű önszerveződő módszer a neurális háló. Ebben a technikában neuronok és interneurális kapcsolatok leegyszerűsített modelljét szimuláljuk. Az egyik alapvető megközelítés a következő: egy adott bemenet minden pontját (a beszéd esetében minden pont két dimenziót képvisel, frekvenciát és időt; a képek esetében minden pont egy pixel egy kétdimenziós képen) véletlenszerűen hozzákapcsoljuk a szimulált neuronok első rétegének bemenetéhez. Minden kapcsolat rendelkezik egy hozzárendelt szinaptikus erősséggel, amely jelképezi a fontosságát – ezeket véletlenszerű értékre állítjuk be. Minden idegsejt összeadja a beérkező jeleket. Ha az összesített jel meghaladja a meghatározott küszöböt, a neuron tüzelni kezd és jelzést küld kimeneti kapcsolatára; ha az összesített bemeneti jel nem haladja meg a meghatározott küszöböt, a neuron nem tüzel és kimeneti értéke nulla. Az idegsejtek kimenetei véletlenszerűen vannak hozzákötve a következő rétegben található neuronok bemeneteihez. Több réteg létezik (általában kettő vagy három), és a rétegek többféle konfiguráció szerint szerveződhetnek. Például az egyik réteg visszatáplálhat egy korábbi rétegbe. A rendszer tetején, egy vagy több szintén véletlenszerűen választott neuron kimenete adja meg a választ. (A neurális hálók algoritmusos leírásához lásd ezt a végjegyzetet: {506}!)
Mivel a neurális hálók esetén a huzalozási és szinaptikus súlyokat véletlenszerűen állítjuk be, egy képzetlen neurális háló válaszai is véletlenszerűek lesznek. A kulcs a neurális hálóhoz tehát az, hogy meg kell tanulnia a céltárgyát. Mint az emlősagyak, amelyekről nagyjából modellezték, a neurális hálók kezdetben ostobák. A neurális háló tanítója – aki lehet egy ember, egy számítógépprogram, vagy talán egy másik, érettebb neurális háló, amely már megtanulta a leckéjét – jutalmazza a tanuló neurális hálót, amikor jó eredményt ad, és megbünteti, amikor rosszat. Ezt a visszajelzést a tanuló neurális háló arra használja, hogy beállítsa az interneurális kapcsolatok erősségét. A jó válasszal összefüggő kapcsolatok erősödnek, míg a rossz választ adók gyengülnek. Idővel a neurális háló átszervezi magát ahhoz, hogy tanítás nélkül is jó választ adjon. A kutatások bebizonyították, hogy a neurális hálók még megbízhatatlan tanárokkal is képesek megtanulni a leckét. Ha a tanár csak hatvan százalékban tudja a helyes választ, a tanuló neurális háló még abból is tanul.
Egy erős, jól megtanított neurális háló széles körű emberi mintafelismerést képes emulálni. A többrétegű neurális hálókat használó rendszerek megdöbbentő eredményeket produkálnak az olyan mintafelismerési feladatok széles körében, mint például a kézírás, az emberi arcok, hitelkártya-megterhelésekhez hasonló kereskedelmi csalások, és sok egyéb dolog felismerésében. Saját, a neurális hálók használatában szerzett tapasztalatom szerint, a legnagyobb mérnöki feladat nem a hálók kódolása, hanem az, hogy automatizált tanító leckéket adjunk nekik, amelyek által megtanulják a kijelölt témájukat.
A neurális hálók jelenleg a biológiai idegi hálók valósághűbb és komplexebb modelljeit használják, mivel a neurális működés mind részletesebb modelljeit vagyunk képesek megalkotni az agy visszafejtéses megismerésének következtében.{507} Mivel több évtizedes tapasztalatunk van az önszerveződő paradigmák terén, az agykutatás új eredményei gyorsan átültethetők a neurálisháló-kísérletekre.
A neurális hálók természetesen fogékonyak a párhuzamos feldolgozásra is, mivel az agy is így működik. Az emberi agynak nincsen központi processzora, ami szimulálná a neuronokat. Ehelyett minden egyes neuront és interneurális kapcsolatot egyéni lassú processzornak tekinthetünk. Komoly munka folyik annak érdekében, hogy olyan specializált chipeket alkossanak, amelyek neurálisháló-architektúrát alkalmaznak, és eközben jelentősen nagyobb munkateljesítménnyel bírnak.{508}
Genetikai algoritmusok (GA-k). A természet által ihletett másik önszerveződő paradigmához tartoznak a genetikai, vagy evolúciós algoritmusok, amelyek lemásolják az evolúciót, még a szexuális úton való szaporodást és a mutációkat is. Az alábbiakban egyszerűsítve bemutatom, hogyan működnek. Először is meghatározzuk, mily módon tudunk megfelelő megoldást adni a problémára. Ha a probléma egy repülőgépmotor tervparamétereinek optimalizálása, meghatározzuk a paraméterlistát (minden paraméterhez megfelelő számú bitet rendelve). Ezt a listát tekintjük a genetikai algoritmus genetikai kódjának. Majd véletlenszerűen több ezer vagy még több genetikai kódot generálunk. Minden ilyen genetikai kódot (amely egy sor tervparamétert határoz meg) egy szimulált „megoldási” organizmusnak tekintünk.
Ekkor minden szimulált organizmust kiértékelünk egy szimulált környezetben egy meghatározott módszer használatával. Ez az értékelés a genetikai algoritmus sikerének a kulcsa. A példánkban minden megoldási organizmust egy repülőgépmotor-szimulációra alkalmaznánk, és meghatároznánk, milyen sikeres az adott paraméterkészlet a számunkra érdekes kritériumok szempontjából (üzemanyag-fogyasztás, sebesség és így tovább). A legjobb megoldó organizmusok (a legjobb tervek) fennmaradnak, és a többi megsemmisül.
Ezután minden fennmaradó organizmust addig szaporítunk, amíg újra el nem érünk egy meghatározott példányszámot. Ez a nemi úton való szaporodás szimulációjával történik. Más szóval minden új megoldási utód genetikai kódjának egy részét az egyik szülőtől és egy másik részét egy másik szülőtől örökli. Általában nem teszünk különbséget a hím és női organizmusok között; elegendő két önkényesen kiválasztott szülő utódját venni. Ahogy sokszorozódnak, lehetőséget hagyunk a mutációra (véletlenszerű változásra) a kromoszómákban.
Ha meghatároztunk egy nemzedéknyi szimulált evolúciót; most megismételjük a lépéseket minden egyes soron következő generáció esetében. Minden egyes generáció után meghatározzuk, mennyit javultak a tervek. Amikor a fejlődés a tervteremtmények két generációja között nagyon kicsi, leállítjuk a javítás ismétlődő körforgását, és a legutolsó generáció legjobb tervét/eit használjuk. (A genetikai algoritmusok algoritmikus leírásához lásd a következő végjegyzetet: {509}!)
A GA kulcsa az, hogy az emberi tervező nem közvetlenül programozza a megoldást, hanem hagyja, hogy az spontán módon jöjjön létre a szimulált verseny és javítás ismétlődő folyamatában. Mint már tárgyaltuk, a biológiai evolúció okos, de lassú folyamat, így intelligenciájának felerősítéséhez megtartjuk éleslátását, míg nagyban felgyorsítjuk az ütemét. A számítógép elég gyors ahhoz, hogy sok generációnyi változást szimuláljon órák, napok vagy hetek leforgása alatt. Ám csak egyszer kell végigmennünk ezen az ismétlődő folyamaton; hiszen ha egyszer hagyjuk végigfutni ezt a szimulált evolúciót, az evolválódott és rendkívül kifinomult szabályokat azonnal valódi problémákra alkalmazhatjuk.
A neurális hálókhoz hasonlóan a GA-k útján hasznot húzhatunk a kaotikus adatokban rejlő finom, ám mélyreható mintákból. A siker egyik alapvető kulcsa a lehetséges megoldások érvényes kiértékelése. Az értékelésnek gyorsnak kell lennie, mert a szimulált evolúció minden egyes generációjában sok ezer lehetséges megoldást kell számba vennie.
A GA-k mesterien kezelik a túl sok változóval dolgozó problémákat, és precíz analitikus megoldásokra jutnak. A repülőgépmotor tervezésénél például több mint száz változót kell kezelni és több tucat kritériumnak kell megfelelni. A General Electric kutatói által használt GA-k képesek voltak olyan repülőgépmotor-tervekkel előállni, amelyek pontosabban megfeleltek a követelményeknek, mint a hagyományos módszerek.
A GA-k használatánál azonban óvatosan kell eljárni. Jon Bird, a Sussexi Egyetem kutatója GA-t használt egy oszcillátor-áramkör optimális tervezéséhez. Több generációnyi próbálkozás kisszámú tranzisztorral hagyományos terveket szült, de a nyertes terv nem oszcillátor lett, hanem egy egyszerű rádióáramkör. Láthatóan a GA felfedezte, hogy a rádióáramkör felvette egy közeli számítógép oszcilláló rezgését.{510} A GA megoldása csak az adott asztal közvetlen közelében működött, ahol a rendszer a probléma megoldásán dolgozott.
A genetikai algoritmusok a káosz- és komplexitáselmélet részeként egyre inkább alkalmasak egyébként követhetetlen üzleti problémák megoldására, például komplex beszállítói láncok optimalizálására. Ez a megközelítés lassan átveszi az analitikusabb módszerek helyét az egész iparágban. (Lásd a későbbi példákat.) A paradigma a mintafelismerést is mesterien végzi, és gyakran kombinálható a neurális hálókkal és egyéb önszervező módszerekkel. Ésszerű módja a számítógépszoftver írásának is, főként olyannak, amelynek egy érzékeny egyensúlyt kell megtalálnia az egymással versenyző erőforrások között.
A usr/bin/god című regényben egy vezető science fiction-író, Cory Doctorow a GA egy érdekes változatát használja egy mesterséges intelligencia létrehozására. A GA nagyszámú intelligens rendszert hoz létre különböző módszerek bonyolult kombinációjával, amelyben minden kombinációt a genetikai kódja jellemez. Ezeket a rendszereket aztán egy GA használatával fejlesztik. A kiértékelési funkció a következőképpen működik: minden rendszer bejelentkezik különböző emberi chatszobákba, és megpróbálja embernek mutatni magát, ami alapvetően egy burkolt Turing-tesztnek felel meg. Ha egy ember az egyik chatszobában olyasmit kérdez, hogy „Mi vagy te, egy chatbot?” (egy automatikus program, amely a mai fejlettségi szintjén nem érti a nyelvet emberi szinten), az értékelésnek vége, a rendszer megszakítja a beszélgetést, és jelenti az eredményt a GA-nak. A pontszámot az határozza meg, milyen hosszú ideig volt képes emberként viselkedni, mielőtt ezt a kérdést nekiszegezték volna. A GA a technikák egyre bonyolultabb kombinációit dolgozza ki, amivel egyre inkább képes lesz emberként viselkedni.
Az alapgondolat legfőbb nehézsége itt az, hogy az értékelési funkció meglehetősen lassú, bár ez csak akkor válik érezhetővé, amikor a rendszerek valamennyire már intelligenssé váltak. A kiértékelési folyamatok továbbá párhuzamosan is futhatnak. Ez az érdekes elképzelés valójában hasznos módszer lehet a Turing-teszt megoldásában, hiszen ha egyszer eljutunk odáig, hogy elegendően kifinomult algoritmusokat táplálhatunk be egy ilyen GA-ba, elképzelhetővé válik a Turing-képes mesterséges intelligencia kifejlesztése.
Rekurzív keresés. Gyakran a lehetséges megoldások nagyszámú kombinációjában kell keresést végeznünk, hogy megoldjunk egy adott problémát. Az egyik ilyen klasszikus példa a sakk. Amint a játékos a következő lépését fontolgatja, jegyzéket készíthet minden lehetséges lépésről, és aztán minden lehetséges lépéshez minden ellenfele által megtett lehetséges válaszlépésről és így tovább. Az emberi játékosoknak azonban nehéz fejben tartaniuk egy ilyen szerteágazó lépés-ellenlépés „fát”, és így nagyban a mintafelismerésre hagyatkoznak – a korábbi tapasztalataik alapján –, míg a gépek képesek elvégezni több millió lépés és válaszlépés logikai elemzését.
Ilyen logikai fa áll a legtöbb játékprogram középpontjában. Nézzük meg, hogyan is működik! Alkossunk egy programot a legjobb lépés kiválasztásához, amelyet elnevezünk A Legjobb Következő Lépés Választónak. Az LKLV úgy indul, hogy kilistázza az összes lehetséges lépést a tábla jelenlegi állapota alapján. (Ha a probléma egy matematikai tétel és nem játéklépések megoldása volna, a program a bizonyítási lánc összes lehetséges következő bizonyítási lépését listázná ki.) Minden egyes lépéshez a program megalkot egy hipotetikus táblát, amely tükrözi, hogy mi történne, ha ezt és ezt a lépést tennénk. Minden ilyen hipotetikus tábla esetén meg kell fontolnunk, mit tenne az ellenfelünk, ha mi ezt lépnénk. Ekkor jön be a rekurzív gondolkodás, mert az LKLV egyszerűen felkéri az LKLV-t (más szóval önmagát), hogy válassza ki ellenfelünk legjobb lépését. Magát felkérve az LKLV listázza ellenfelünk összes lehetséges lépését.
A program folyamatosan felkéri magát, annyi lépést átgondolva, amennyi időnk csak van. Így létrehoz egy hatalmas lépés-ellenlépés fát. Ez az exponenciális növekedés újabb példája, hiszen ahhoz, hogy előretekintsünk egy eggyel további lépésre (vagy ellenlépésre), körülbelül öttel kell megszoroznunk a rendelkezésre álló számításokat. A rekurzív formula sikerének a titka a lehetőségek fájának megkurtításából és növekedésének megállításából áll. A játék kontextusában ha egy táblán az állás reménytelen valamelyik fél részére, a program attól a ponttól leállíthatja a lépés-ellenlépés fa növelését (nevezzük a fa „végső levelének”), és a legújabban megfontolt lépést teheti meg a legvalószínűbb nyerő vagy vesztő lépésnek. Amikor ezek az egymásba épülő programszintek befejeződnek, a program meghatározza a jelenlegi aktuális állás szerinti, a létrehozott rekurzív kiterjesztés határain belüli és a kurtítási algoritmusa szerinti legjobb lehetséges lépést. (A rekurzív keresés algoritmikus leírásához lásd a következő jegyzetet: {511}!)