World wide wait; CACHING IS PROBAAT MIDDEL TEGEN LANG WACHTEN OP HET INTERNET

Het Internet raakt verstopt. Wie na het avondeten achter de computer kruipt, kan een eeuwigheid wachten totdat de gevraagde webpagina op het scherm verschijnt. Lokale buffergeheugens moeten de vaart er weer in brengen.

HARDWARE-fabrikanten als Cacheflow en Inktomi leveren ze sinds kort. Grote Internet-providers als UU-net in de Verenigde Staten en Nippon Telegraph and Telephone (NTT) in Japan experimenteren er nu mee. Cacheservers, ofwel buffergeheugens. Bedoeld voor de tijdelijke opslag van geraadpleegde Internet-pagina's. Wil iemand een kort daarvoor geraadpleegde pagina nog een keer bekijken, dan is er geen intercontinentaal dataverkeer meer nodig, met alle bijkomende vertragingen. De opgeslagen pagina wordt gewoon uit het buffergeheugen van de provider opgeroepen. Cacheservers worden gezien als dé oplossing voor de opstoppingsproblemen van het Internet.

Filevorming op het Internet is een groeiend probleem. Het World Wide Web, het grafische gedeelte van Internet, wordt tegenwoordig ook wel het World Wide Wait genoemd. Soms duurt het een eeuwigheid voordat de Web-pagina's op het computerscherm verschijnen. Nog onlangs kwam het Instituut voor Internet Snelheidsmeting (IVIS) in Amsterdam tot de conclusie dat de gemiddelde snelheid van Internet sinds november fors is teruggelopen. De traagheidspiek ligt vooral tussen zeven en elf uur 's avonds, als Nederland het eten op heeft en massaal achter de computer kruipt.

Er is een aantal oorzaken voor de toenemende traagheid. Om te beginnen is het aantal gebruikers de laatste jaren fors gegroeid, evenals het aantal Web-pagina's. In 1996 telde Internet nog 30 miljoen gebruikers, in 2001 zullen dat er 175 miljoen zijn. Het grootste probleem zijn niet eens zozeer de hoofdaders van het Internet, want die leveren nog altijd transportsnelheden tot circa 600 megabit per seconde. De echte pijn zit hem in de verbindingen met de computers waarop de Web-pagina's staan. Deze servers hebben veel een geringere capaciteit.

LAPMIDDELEN

De snelheid kan nog wel enigszins worden opgevoerd, zij het dat de meeste oplossingen lapmiddelen zijn. Sommige softwarebedrijven leveren sinds kort zogenoemde browserversnellers, waarmee navigatieprogramma's (browsers) betere prestaties zouden leveren. Deze programma's anticiperen op wat de gebruiker gaat doen. Terwijl hij een bepaalde Web-pagina leest, haalt de browser op de achtergrond alvast de vervolgpagina's op. Daardoor ontstaat de indruk dat het Internet sneller is, maar in werkelijkheid dragen dergelijke programma's juist bij tot de congestie op het Net.

Een oud idee dat al jaren wordt toegepast is het gebruik van zogenoemde mirror sites: computers met spiegelbestanden. Deze servers staan veelal in verschillende geografische locaties opgesteld, zodat Nederlandse gebruikers kunnen afstemmen op een computer dichter bij huis. Nadeel is dat men vaak zelf op zoek moet gaan naar deze adressen.

Een andere aanpak is proberen het dataverkeer zelf zoveel mogelijk te beperken, bijvoorbeeld door slimme compressietechnieken toe te passen. Zo'n driehonderd computerexperts zijn onlangs een nieuwe multimediastandaard MPEG 4 overeengekomen. Daarmee kunnen via Internet bestanden worden verzonden die een goede beeld- en geluidskwaliteit waarborgen, maar toch niet al te groot zijn. Bovendien hoeven deze bestanden niet langer eerst in zijn geheel te worden opgehaald, maar beginnen ze tijdens het ophalen al te spelen ('streaming video'). Dergelijke technieken zullen in de toekomst steeds vaker worden gecombineerd met weer een ander fenomeen dat multicasting wordt genoemd. De meeste Internet-toepassingen vallen onder de noemer 'unicasting': wanneer duizend personen een Web-pagina aanvragen, wordt die pagina ook daadwerkelijk duizend keer over het net verstuurd. Bij multicasting stuurt de server de informatie slechts eenmaal naar alle computers tegelijk, waardoor het Net niet wordt overbelast. Multicasting vergt evenwel forse investeringen in het netwerk zelf.

Sommigen menen dat de congestieproblemen pas kunnen worden opgelost als het complete internet wordt opgewaardeerd. Dat is het doel van het onlangs begonnen Project Oxygen. Dit datanetwerk zal transportsnelheden ondersteunen van minimaal 100 gigabyte per seconde. Op de lange termijn moet zelfs 1 terabit per seconde haalbaar zijn. Omdat het netwerk geen onderscheid maakt tussen spraak en dataverkeer, kan het zowel voor telefonie als internet kunnen worden gebruikt. De gebruiker betaalt per bandbreedte, spraakverkeer dat weinig capaciteit vergt zal mogelijk zelfs gratis worden aangeboden.

Goedkoop is het aanleggen van zo'n netwerk niet: de kosten worden geraamd op 14 miljard dollar. Bovendien zal veel geld voor onderhoud moeten worden uitgetrokken. Een belangrijk deel van het dataverkeer zal worden getransporteerd via kabels in de oceanen. Die zullen door een vloot van zestig schepen regelmatig op breuken moeten worden gecontroleerd. Het Nederlandse ingenieursbureau Fugro zal na uitgebreid bodemonderzoek de helft van de route van dit glasvezelnetwerk in kaart gaan brengen. Project Oxygen biedt echter geen oplossing voor de problemen waarmee het huidige Internet te kampen heeft. Daarom is alle hoop gevestigd op 'local caching'.

BROWSER

De meeste Web-gebruikers zijn al vertrouwd met 'caching'. Navigatieprogramma's als Netscape Navigator en Internet Explorer slaan de Web-pagina's die worden geraadpleegd als tekst en plaatjes tijdelijk op in een buffergeheugen of cache. Als de gebruiker terug wil keren naar een Web-pagina die hij enkele minuten eerder heeft geraadpleegd wordt die pagina uit de cache op de harde schijf van de PC gevist. Wel moet de browser iedere keer controleren of de pagina tussentijds niet is gewijzigd. Caching kan ook in het groot. Bedrijven die toegang tot het Internet verschaffen, de zogenoemde providers, kunnen een cacheserver installeren waarop heel veel Web-pagina's kunnen worden opgeslagen. Elke keer als er een pagina wordt opgevraagd door een gebruiker wordt die pagina eerst bij de desbetreffende server opgehaald en vervolgens naar de cacheserver weggeschreven. Een volgende gebruiker die dezelfde pagina wil raadplegen krijgt de pagina in de cacheserver te zien.

Op deze manier kunnen Web-pagina's zeer snel geladen worden. Om intercontinentaal dataverkeer zoveel mogelijk te beperken, zou de cacheserver bijvoorbeeld slechts een keer in het half uur contact met de oorspronkelijke server kunnen zoeken om te controleren of de informatie tussentijds is gewijzigd. Bedrijven als Netscape en Microsoft leveren al enige tijd zogenoemde proxyservers voor ondernemingen en ook sommige internetaanbieders sluizen een deel van het dataverkeer via zo'n server. Maar deze systemen hebben vaak een geringe capaciteit waardoor ze maar een paar honderd gebruikers kunnen ondersteunen. Bedrijven als Cacheflow en Inktomi leveren sinds kort cacheservers voor Internet toegangsverschaffers met een veel hogere capaciteit. De server van Inktomi, een bedrijf dat is voortgekomen uit de Universiteit van Berkeley en gedeeltelijk eigendom is van chipfabrikant Intel, heeft een opslagcapaciteit van 1 terabyte. Dat staat gelijk aan duizend exemplaren van de elektronische Encyclopaedia Britannica.

Het grote voordeel van lokale caching is dat de Internet providers bij verdere groei van hun ledenbestand niet steeds opnieuw hoeven te investeren in breedbandige verbindingen met het hoofdnet. “Tachtig procent van het Internet-verkeer is volstrekt overbodig en kun je met een cacheserver opvangen”, zegt Dennis McEvoy van Inktomi. “Met cacheservers kun je makkelijk drie huurlijnen, elk met een capaciteit van 135 megabit per seconde, uitsparen, terwijl Internet voor de gebruiker aanzienlijk sneller wordt.”

McEvoy verwacht dat cacheservers ook nog zullen worden gebruikt als de capaciteit van het Internet aanzienlijk wordt vergroot. “Extra capaciteit wordt meestal meteen weer door nieuwe technieken opgeëist. Daarom moeten we dit probleem structureel aanpakken.”