Computer leert zichzelf driedimensionaal te zien

Kunstmatige intelligentie

Een neuraal netwerk, door Google-onderzoekers gemaakt, leerde zichzelf om vanaf foto’s te construeren hoe een kamer eruitziet.

Voor het eerst heeft een kunstmatig neuraal netwerk zichzelf geleerd om op basis van tweedimensionale afbeeldingen een voorstelling te maken van hoe een driedimensionale ruimte er uit ziet. Wetenschappers van Googles kunstmatige intelligentie-onderzoeksgroep DeepMind beschrijven het programmeer- en leerproces in een artikel dat donderdag in Science werd gepubliceerd. Het netwerk kreeg de plaatjes en informatie over de plaats vanwaar de plaatjes ‘gemaakt’ waren. Vervolgens kon het met een zekere betrouwbaarheid gissen hoe voorwerpen in de ruimte er vanuit een ander perspectief uitzien. Het gaat om een digitale ruimte: het is vooralsnog te ingewikkeld om dit in de realiteit te doen.

‘Neurale netwerken’ zijn een soort computersystemen die menselijke denkvormen proberen na te bootsen. Met dit onderzoek poogt DeepMind een centraal probleem in de kunstmatige intelligentie aan te pakken, zegt de Nederlandse machine learning-expert Taco Cohen. „Een netwerk kan heel goed patroonherkenning leren als we het voeden met heel veel voorbeelden, maar mensen leren ook veel door passief observeren. Wat veel mensen daarom geloven is dat we toe moeten naar een meer natuurlijke leeromgeving, waarbij een intelligent algoritme naast beelden ook andere informatie krijgt.” Dat is waar de onderzoekers van Google vooruitgang boeken, aldus Cohen: ze gaven het netwerk de positie van de virtuele ‘camera’ en de richting waarin die keek.

Er was genoeg informatie om een virtuele robotarm iets op te laten pakken

Het netwerk dat DeepMind ontwierp bestaat uit een ‘encoder’ die op basis van de afbeeldingen een inschatting maakt van de indeling van de ruimte. Het ‘decoder’-systeem extrapoleert uit die inschatting hoe de ruimte er vanuit een ander standpunt uit zou zien. Het netwerk slaagde erin om informatie op te slaan over de voorwerpen in de ruimte: de kleur en de vorm van een rode bal, bijvoorbeeld. Met die informatie kon een virtuele robotarm worden aangestuurd om een voorwerp ‘op te pakken’.

Volgens Taco Cohen is dit onderzoek een kleine stap in een druk onderzoeksveld. „Dit is niet dé oplossing, maar het blijkt wel goed te werken in een synthetische wereld.” Een dergelijk systeem voor de werkelijke wereld laat nog op zich wachten.

    • Len Maessen