Het einde van kleiner

Ooit zal er een einde komen aan de miniaturisering van elektronica. De verwachting is 2015, misschien 2021. Wat dan?

AL RUIM VEERTIG JAAR worden elektronische apparaten kleiner, goedkoper, sneller en veelzijdiger. Die spotgoedkope telefoons, computers, minidisc- en dvd-spelers hebben we te danken aan de integratie en miniaturisatie in de elektronische industrie. Volgens de meest recente voorspellingen zullen de chipfabrieken nog ruim tien jaar lang in hetzelfde tempo krachtiger onderdelen blijven uitspugen. Maar de onvermijdelijke grens, bepaald door de wetten van de fysica, komt in zicht. En wat dan?

De elektronische industrie wordt geregeerd door de Wet van Moore, die in 1965 onder woorden is gebracht door Gordon Moore, mede-oprichter van Intel (zie kader). De Wet van Moore zegt dat het aantal transistors op een chip in een vaste tijd verdubbelt.

De Wet van Moore is geen echte natuurwetenschappelijke wet. Moore ontdekte in 1965 een verdubbelingstijd van een jaar. Maar hij had maar een jaar of vier om zich op te baseren – veel te weinig voor categorische uitspraken. Hij sprak zelf niet van een wet. In 1975 lag de industrie keurig op Moore's schema. Moore, opnieuw met vooruitziende blik, paste niettemin zijn voorspelling aan. Moore verwachtte dat de verdubbeling van het aantal onderdelen zou vertragen tot eens in de twee jaar. De wet was dus meer een vuistregel.

In de jaren '90 is lang volgehouden dat in de praktijk sprake was van een periode van anderhalf jaar, maar dat is onjuist. Wie de aantallen transistors vanaf de Intel 4004-chip uit 1971 (2250 stuks) afzet tegen het bouwjaar, en dat doet tot en met de Pentium 4-processor uit 2000 (42 miljoen), komt ternauwernood op een verdubbeling elke twee jaar. Eigenlijk had de 40 miljoen in 1999 moeten worden gehaald. Een opvolger voor de Pentium 4 voor consumentencomputers is nog altijd niet op de markt. De codenaam is `Prescott'; naar verluidt zal hij 100 miljoen transistors bevatten, wat vier jaar na een processor met 42 miljoen stuks behoorlijk tegenvalt.

Om aan de Wet van Moore te blijven voldoen staan Intel en collega-chipmakers als IBM en AMD onder voortdurende druk de bestaande technieken van chipfabricage te verbeteren. Die technieken zijn in essentie lithografisch. De chip-in-wording wordt belicht via een mal; belichte delen ondergaan een chemische verandering en kunnen in een volgende processtap worden weggewassen. Zo ontstaan in het silicium de patronen die uiteindelijk transistors worden en informatie kunnen verwerken.

De miniaturisering betekent dat de procestechnologen licht met steeds kleinere golflengte moeten leren beheersen. De Prescott, de opvolger van de Pentium 4, zal details hebben van 90 nm; daarvoor is licht nodig met een golflengte van 193 nm (1000 nm is een duizendste mm). In de generatie daarna worden de details 65 nm en de golflengte van het benodigde licht is naar verwachting 157 nm. Zulk ver ultraviolet licht laat zich niet goed meer door lenzen geleiden. In het lithografische proces zullen spiegels op sommige plaatsen het licht moeten gaan sturen, wat een radicale ommezwaai betekent. In de 45-nm-technologie zullen alleen nog spiegels kunnen worden gebruikt.

besparing

Zoals Moore voorzag neemt met het samenpersen van de componenten het probleem van de warmteafvoer toe. Om dit probleem het hoofd te bieden verlagen de fabrikanten van processors per generatie de spanning van de elektrische signalen en dus de toegevoerde energie. De 80486-processors van Intel uit 1989 draaiden nog op 5 volt. Daarna is het voltage gestaag gezakt: rond de 2 volt in de Pentium III en onder de 2 in de Pentium IV. Processors van nu hebben zelfs verschillende voltages voor verschillende onderdelen, zodat maximaal op de stroom wordt bespaard. Veel lager kan de spanning niet meer, of het signaal gaat in de chip verloren. Het warmteprobleem wordt overigens ook bestreden met ventilatoren en zelfs vloeistofkoeling.

Ook wat de materialen betreft is er een permanente speurtocht gaande naar verbeteringen. Zo gebruikt Intel sinds kort strained silicon (uitgerekt silicium), waarbij de onderlinge afstand van de atomen een procentje groter is dan normaal. Dat ene procentje zorgt voor een 10 tot 20% lagere elektrische weerstand, die op zijn beurt sneller transport van signalen mogelijk maakt, bij een geringere warmteproductie. Een andere truc om meer onderdelen op een chip te persen is hoogbouw. Door een ingenieuze combinatie van lithografische handelingen (tot 40 maal achtereen) kan een processor tegenwoordig uit wel zes lagen van componenten en onderlinge verbindingen bestaan, die Intel graag vergelijkt met een wolkenkrabber.

Zo wringen de chipmakers zich in steeds ingewikkelder bochten om aan de verwachtingen te voldoen. Hoe lang blijft dat lukken? Eén cruciaal onderdeel in processors is altijd al kleiner geweest dan de karakteristieke maat van zijn generatie. Dat is de `gate' van een transistor: het schakelknopje in de ja-nee-processen die de processor uitvoert. Bij de 90 nm-technologie die nu geleidelijk aan wordt ingevoerd, is de gate 37 nm breed. Bij de 15 nm-technologie, zes generaties na de huidige Pentium 4, is dat nog maar 5 nm: 50 atoomdiameters. De verwachting is dat dan door het quantummechanische tunneleffect de elektronen daardoorheen gaan lekken, zodat de processor niet meer betrouwbaar werkt.

Optimisten zeggen nu dat de Wet van Moore nog twaalf jaar, dus tot 2015 is gegarandeerd. Pessimisten zeggen dat het dan mogelijk is afgelopen met de op silicium gebaseerde technieken. Als ze dubbel pessimistisch zijn, gaan ze er vanuit dat de miniaturisering nóg wat langzamer zal gaan, een verdubbeling van het aantal transistors op een chip elke drie jaar bijvoorbeeld. Dan komt het einde van het huidige technologie pas in 2021, wat je ook een optimistisch scenario zou kunnen noemen.

buckybuizen

De laatste tijd is een hausse merkbaar in het onderzoek naar microscopische bouwstenen die zich via zelfassemblage vormen tot de benodigde structuren. Bottom-up dus, in plaats van top-down. Veel aandacht gaat uit naar buckytubes oftewel buckybuizen. Dat zijn buisjes van koolstofatomen in een kippengaaspatroon. Buckybuizen zijn een variant van de voetbalvormige `buckyballen' die in 1985 zijn ontdekt. Ze geleiden stroom bijzonder goed. In 2002 is het IBM-laboratorium in Yorktown Heights (in de staat New York) erin geslaagd van dergelijke buizen transistors te maken. Deze transistors bleken sneller te werken dan siliciumtransistors – of even snel bij lager energiegebruik.

`Yorktown Heights' doet veel onderzoek naar het ultrakleine. Ruim een jaar terug publiceerde het lab over schakelingen van moleculen koolmonoxide, met verbindingen van slechts enkele atomen breed. Daarmee kun je op dezelfde oppervlakte 250.000 maal zoveel elektronica kwijt als nu.

De IBM-laboranten maken maken `draden' door groepjes van twee moleculen koolmonoxide (CO) op een rij te leggen op een ondergrond van koper. Dat doen ze met een scanning tunneling microscoop (STM), een uitermate fijne naald die een oppervlak zo nauwkeurig aftast dat atomen en moleculen zichtbaar worden. Maar je kunt er ook atomen en moleculen mee verplaatsen.

Zo'n draad van paren CO-moleculen wordt in werking gesteld door een derde molecuul bij het eerste paar te duwen. Door ruimtegebrek moet een van de drie wijken, en deze belandt bij het tweede paar. Daarvan moet nu een het veld ruimen, enzovoort. De voortplanting van het signaal lijkt op het omvallen van dominostenen. Met slim gerangschikte CO-moleculen kunnen de IBM-onderzoekers twee signalen laten samenkomen in een OF-poort. Daar komt alleen een signaal uit als een van de twee ingaande draden een signaal droeg. Ook een EN-poort (een uitgaand signaal als beide invoerkanalen een signaal voeren) is mogelijk. Pronkstuk is een `sorteerschakeling' met drie invoer- en drie uitvoerpunten. De respons van de uitvoerpunten is een ingewikkelde logische combinatie van de invoer. Van dit circuit zouden er 190 miljard passen op de achterkant van een potlood, aldus IBM. Uit dergelijke circuits kun je in principe een computer maken. Wel zijn daarvoor nog tal van horden te nemen.

De groep van James Tour aan de Rice University in Houston heeft wel werkende chips gemaakt, met een zeker zo wonderlijke techniek. Uitgangspunt is een plakje silicium, nog geen tiende mm groot, dat bedampt is met goud en voorzien van een tiental elektrische contacten. Het goud vormt een `discontinue film' zoals de onderzoekers het formuleren. Er is aanvankelijk geen elektrische geleiding tussen te contactpunten.

Dan worden er nanodraadjes, strengetjes goud van 30 nm dik en 300 tot 2000 nm lang, op het plakje silicium aangebracht door dat in een oplossing te dopen. De gouddraadjes zijn zelf behangen met moleculen van de stof mononitro-oligophenyleen-ethynyleen. Stoffen van deze soort kunnen geheugen- en schakelgedrag vertonen tussen goudcontacten, schrijven de onderzoekers in hun publicatie van oktober 2003 (in het Journal of the American Chemical Society). Hoe en waar de nanodraadjes op de goudfilm terechtkomen wordt aan het toeval overgelaten. Na deze `fabricagestap' gaan Tour en collega's de chip doormeten en programmeren. Het blijkt dat zo spontaan schakelingen ontstaan die van buitenaf aan- en uitgezet kunnen worden, zodat de chip in een soort leerproces kan worden geprogrammeerd. Hoe dit precies werkt, doorgronden de onderzoekers zelf nog niet. Niettemin hebben ze schakelingen gemaakt die werken als geheugen en dagenlang hun informatie vasthielden, en schakelingen die tot logische operaties in staat waren. De circuits zijn vrij langzaam, en het programmeren kost tijd. Maar de fabricage zou lang niet zulke dure installaties vereisen, en volgens groepsleider Tour kan de dichtheid van onderdelen honderd tot duizend keer groter zijn dan de huidige.

Het kampioenschap priegelen gaat naar de universiteit van Wisconsin. Daar heeft fysicus prof. Franz Himpsel informatie opgeslagen in één atoom per bit. Hiervoor gebruikte ook hij de scanning tunneling microscoop. Het gaat hier dus niet om een chip, een rekenmachine, maar om een geheugen. Het geheugen van Himpsel is een oppervlak van goud waarop siliciumatomen staan opgesteld, elk op een ruimte van 20 goudatomen. Bij het aftasten van een dergelijk patroon met de STM om het oppervlak in beeld te brengen, kan er een atoom aan de naald van de STM blijven kleven. Himpsel maakte, zoals hij zelf zegt, `van dit probleem een oplossing' door het verwijderen van een siliciumatoom te beschouwen als het schrijven van een 0. Het níet verwijderen van een atoom is dan het schrijven van een 1. Een bit bestaat hier uit één atoom, maar neemt de ruimte in van 20 atomen. Dat is een miljoen maal dichter dan op een cd.

Het lezen van de geschreven informatie gaat ook met de naald, maar dan van een grotere afstand omdat het oppervlak niet beïnvloed mag worden. Himpsel ziet de snelheid niet hoger worden dan 10 miljoen bits per seconde, tienmaal zo traag als de harde schijven van nu. Volgens hem komt er een tijdperk aan waarin grotere opslagdichtheden niet samengaan met hogere, maar met lagere lees- en schrijfsnelheden. De miniaturisatie maakt onvermijdelijk dat er een keus wordt gemaakt: kleiner óf sneller.

Soortgelijke beperkingen worden aangekondigd door een viermanschap van onderzoekers (waarvan een van Intel) in de Proceedings of the IEEE (Institute of Electrical and Electronics Engineers) van november. Deze Bende van Vier toont met harde thermodynamica en quantummechanica aan dat het gelijktijdig kleiner en sneller worden van chips binnen afzienbare tijd moet ophouden. De theoretische minimumgrootte van een schakelaar is volgens de vier 1 nm, wil een processor nog werken bij kamertemperatuur. Maar om te schakelen is een minimale energie en een minimale tijd nodig. Zou je dergelijke ideale schakelaars op een chip maximaal dicht opeenpakken en op volle snelheid laten werken, dan zou de chip per cm² duizendmaal zoveel energie afgeven als het oppervlak van de zon: zo'n 6 miljoen W/cm².

schakelaars

Wat is dan de kleinste, snelste rekenchip die de fysica toelaat? De Bende van Vier beschouwt 1000 W/cm2 als het maximum dat redelijkerwijs af te voeren valt (100 W/cm², verwacht bij de 15 nm-technologie, wordt als oplosbaar maar onopgelost probleem gezien). In een eenheid die 1000 W/cm² produceert moeten ideale schakelaars niet 1 nm maar 100 nm uiteenliggen (zo heb je er 10.000 maal minder per cm²). Dan passen er 10 miljard op een cm², en dan mogen ze werken op hun maximale snelheid: ongeveer 1000 GHz. Deze dichtheid van schakelaars is ongeveer 30 maal zo hoog als op het 15 nm-niveau wordt verwacht.

Anders gezegd: tenzij er een Nobelprijswaardige revolutie plaatsvindt in de koeltechniek, moet over vijftien jaar al de theoretisch ideale schakelaar angstwekkend dicht worden benaderd. Dat noodzaakt bijna tot het toepassen van moleculaire technieken als buckybuizen en omvallende CO-moleculen. Het sturen van elektronen door verbindingen van metaal of halfgeleider levert te veel verliezen en te veel warmte op.

En als de ideale 1000 GHz-chip er eenmaal is? Dan, en waarschijnlijk eerder, moeten er keuzes worden gemaakt. Chips kunnen dan alleen kleiner, als je er genoegen mee neemt dat ze trager gaan werken. Anders zijn ze niet meer te koelen en blazen ze zichzelf op.

Zou dat erg zijn? Laten we in de eerste plaats niet vergeten dat de snelste chips die we zullen kennen, even ver van de huidige Pentium 4 af zullen staan als de antieke 286 van Intel (monochroom schermen, Ms-Dos, WordPerfect 4).

De verleiding is groot te veronderstellen dat we tegen die tijd wel genoeg hebben aan die rekenkracht. Maar mocht dat niet zo zijn, dan zijn er volop sluipwegen. Chips kunnen namelijk volgens de natuurkunde van de Bende van Vier wel degelijk sneller als je ze groter maakt – niet voor niets worden processors in pc's al met elke generatie groter.

Rekentaken kunnen ook sneller verlopen als je ze verdeelt over verschillende processors, misschien binnen één machine, maar waarom niet verspreid over een netwerk, zelfs over internet? Dit `gedistribueerd rekenen' is in de wetenschap allang routine, en ook de commercie weet er vandaag al weg mee. Verder valt er heel wat te optimaliseren aan de software van vandaag, die uitgaat van een weelde aan rekenkracht en opslagruimte. Stroomlijn die, en je wint het equivalent van twee generaties processors. En als sneller niet meer kan of hoeft, kunnen nieuwe technieken als die van Tour in Houston nog altijd leiden tot een lagere prijs.

De grens aan de Wet van Moore is misschien slecht nieuws voor Intel en collega's. Maar na `Moore' is `meer' zeker nog mogelijk. De techniek en de wereldeconomie komen rond 2020 niet tot stilstand, en de geschiedenis van het rekenen evenmin.