Topuniversiteiten

In W&O van 6 september verscheen een zeer tot de verbeelding sprekende grafiek met daarnaast een rangorde van Europese universiteiten op basis van hun wetenschappelijke invloed berekend op grond van citatie-analyse. De bron was keurig aangegeven, het zeer recent verschenen `Third European Report on S&T Indicators 2003' van de Europese Commissie. Het zal weinig verbazing wekken als wij verklappen dat de berekeningen van de desbetreffende indicatoren uitgevoerd zijn door het Centrum voor Wetenschap- en Technologiestudies (CWTS) van de Universiteit Leiden.

Wij hebben onze Brusselse opdrachtgevers voortdurend gewaarschuwd de door ons berekende indicatoren niet op deze wijze te `gebruiken' voor een rangorde van universiteiten. Er zijn twee belangrijke redenen. Ten eerste een schaal-argument: een kleine universiteit met een beperkt aantal vakgebieden, kan `gemakkelijker' een hoge totale impact-score behalen dan een grote, zeer brede universiteit. Ten tweede: onze jarenlange ervaring met `bibliometrische' indicatoren heeft ons geleerd dat een rangorde niet gebaseerd moet worden op slechts één indicator, ook al beschouwt men die als de `kroonindicator'. De universiteiten die bovenaan in de rangorde te vinden zijn en dat zijn voor Nederland Eindhoven (TUE) en Enschede (UT) hebben prima prestaties geleverd en `verdienen' dus ten volle de voor hen berekende impactwaarde. Laat daar geen misverstand over bestaan. En we vinden ook brede universiteiten op de hoogste posities, zie Cambridge, Oxford, München. Voor dezelfde Europese Commissie hebben we onlangs uitgezocht welke de EU top-universiteiten zijn in de levenswetenschappen, een zeer belangrijk deel van de wetenschapsbeoefening met alle medische vakken en `aanrakende' natuurwetenschappen. Juist ook om schaalgrootte mee te nemen in een rangorde, waren vier verschillende indicatoren nodig.

Wat je dan ziet, is dat vrijwel dezelfde universiteiten in de top-20 verschijnen, maar met flink wisselende verschillen in rangorde. Ergo: we toonden aan dat de top zeer zeker `robuust' is, en dat de door ons toegepaste methode significante informatie over wetenschappelijk presteren van universiteiten levert, maar dat je dan als universiteit niet moet gaan zeuren over `ik sta op plaats 5 en zij op plaats 10 en ik ben dus beter dan zij', want zo'n uitspraak kan niet afgeleid worden uit de puur numerieke rangorde bij slechts één afgezonderde indicator. Bovendien moet er op gewezen worden dat het hier universiteiten in EU-landen betreft. De oplettende lezer zal beslist de ETH Zürich gemist hebben, en ook de uitstekend presterende Universiteit van Genève. Reken maar dat die in een `volledig' Europese top aanwezig zijn. Overigens vonden wij voor Utrecht in de analyse van de top in de levenswetenschappen ook een uitstekende positie, en is het weer min of toeval dat deze universiteit niet figureert in de top-20 lijst van 6 september.