zum Hauptinhalt
Maß nehmen. Kritisiert werden die Kriterien: Fachvertreter bewerten eine ganze Uni, nur Publikationen in Zeitschriften zählen. Foto: dpa

© picture-alliance/ dpa

Uniranglisten: Wie seriös sind Rankings?

Uni-Ranglisten sind beliebt, bilden aber oft nicht die Wirklichkeit ab, sagen Kritiker. Nach besseren Methoden wird jetzt gesucht

Rankings regieren die Hochschulwelt. Wenn Studienbewerber sich für eine Uni entscheiden, lassen sie sich von einem Blick auf Ranglisten beeinflussen. Politiker können sich davon leiten lassen, wenn sie über Wohl und Wehe von Einrichtungen nachdenken. Und für viele Medien gibt es nichts Schöneres, als in der Art der Sportberichterstattung über Auf- und Absteiger zu berichten.

Auch Hochschulen bedienen sich der Rankings, wenn sie nach internationalen Kooperationen suchen. Vom Londoner King’s College (in den Weltrankings zwischen den Plätzen 25 und 50) heißt es, es arbeite nur mit Unis zusammen, die es unter die ersten hundert schaffen. In manchen Ländern sollen sich Stipendiaten nur an Einrichtungen bewerben, die ein gutes Rankingergebnis vorweisen können. „Universitäten stehen immens unter Druck, in Rankings aufzutauchen und sich immer weiter zu verbessern“, sagt Jean-Marc Rapp, der Präsident der Europäischen Universitätsvereinigung (EUA).

Doch an den Listen scheiden sich die Geister. Die Macht, die von Rankings ausgehen kann, stehe in keinem Verhältnis zu ihrer oft zweifelhaften Seriosität, sagen Kritiker. Die einschlägigen Rankings „reduzieren die Wirklichkeit in unzulässiger Weise“, kritisierte unlängst Karl Max Einhäupl, der Chef der Berliner Charité.

Bestätigt fühlen können sich die Kritiker durch zwei neue Publikationen, in denen die EUA und die Friedrich-Ebert-Stiftung Rankings unter die Lupe genommen haben. Vor allem die Weltrankings – wie das jüngst veröffentlichte QS-Weltranking aus England oder das Schanghai-Ranking – gaukelten eine Eindeutigkeit vor, die nicht bestehe, heißt es dort. Es sei kaum nachzuvollziehen, wie die Rankingmacher zu ihren Ergebnissen kommen, kritisiert der Hochschulexperte Andrejs Rauhvargers, der für die EUA die Weltranglisten untersucht hat: „Rankings haben Anspruch, die Leistungen von Hochschulen transparent zu machen. Ich wäre aber schon glücklich, wenn die Rankings selber transparent wären", sagt er ironisch. Die Kritik entzündet sich an mehreren Punkten.

Beispiel Reputation
: Wer sollte besser wissen als die Kollegen, welche Uni gut ist? Daher beziehen die meisten Rankings das Urteil von Forschern ein. Für die Weltrankings müssen sie ein Urteil über eine ganze Einrichtung abgeben. Doch das dürfte den meisten Befragten schwerfallen. Dass ein englischer Physiker weiß, wie gut eine deutsche Uni in den Geisteswissenschaften ist, erscheint zweifelhaft. Oft ist die Auswahl für die Befragten eingeschränkt. Sie können nur unter wenigen vorgegebenen Hochschulen auswählen. „Nicht nur viele Unis, auch ganze Länder fallen von vornherein raus“, heißt es in der EUA-Studie. Das Ergebnis: Es stehen die Unis vorne, die von altem Ruhm zehren, während neue Leistungen kaum eine Rolle spielen.

Beispiel Zitationen: Die Leistungen in der Forschung bewerten praktisch alle Rankings anhand von bibliometrischen Datenbanken. Diese nehmen Aufsätze in international referierten Zeitschriften auf. Hier sind die Unis im Vorteil, die in der Medizin und in den Naturwissenschaften stark sind. Denn diese Fächer publizieren ihre Forschungsergebnisse hauptsächlich in Fachzeitschriften. Andere Bereiche, wie die Geisteswissenschaften oder auch die Ingenieurwissenschaften, werden kaum erfasst, da hier Monographien oder Aufsätze in Tagungsbänden wichtiger sind. Wie groß der Vorteil für die Naturwissenschaften ist, zeigt ein vom Schanghai-Ranking benutzter Index. Von den 21 dort berücksichtigten Feldern sind nur zwei aus den Geistes- und Sozialwissenschaften, sieben dagegen aus der Medizin. Bevorzugt sind auch angloamerikanische Unis – und das nicht nur, weil nicht-englischsprachige Aufsätze in den Journalen praktisch keine Berücksichtigung finden. US-Forscher neigten dazu, Kollegen aus anderen Ländern zu ignorieren, heißt es in der EUA-Studie. Das könnte auch ein Grund dafür sein, dass deutsche wie andere kontinentaleuropäische Unis in den Weltrankings eher schwach abschneiden.

Beispiel Gesamtpunktzahl
: Für die Weltrankings verrechnen die Macher die einzelnen Indikatoren zu einer Gesamtpunktzahl, um ein klares Tableau präsentieren zu können. Kritiker bezweifeln, dass die Punktabstände aussagekräftig sind. Es sei vielmehr davon auszugehen, dass der tatsächliche Unterschied zwischen den Unis gering sei. Ein einzelner Faktor verzerre das Ergebnis oft, heißt es in dem Bericht der Friedrich-Ebert-Stiftung. So habe die Uni Göttingen ihr gutes Abschneiden im Times Higher Education Ranking (beste deutsche Uni auf Platz 43) vor allem einigen wenigen stark zitierten Artikeln aus der Physik zu verdanken.

Die Lehre wird in den Weltrankings dagegen überhaupt nicht berücksichtigt – und das, obwohl sich Studierende gerne daran orientieren. „Es gibt bisher keinen Weg, wie man die Qualität von Lehre objektiv messen könnte“, sagt Rauhvargers.

Nun werden Rankings kaum vom Markt verschwinden. Immer wieder wird daher versucht, neue Listen zu konzipieren, die die Wirklichkeit gerechter abbilden. Die Forderung, nicht gesamte Unis, sondern nur einzelne Fächer zu vergleichen, hat etwa das Centrum für Hochschulentwicklung seit langem umgesetzt. Gefordert wird auch, ein Ranking solle möglichst viele Kriterien berücksichtigen und die Fachvertreter zufriedenstellen. Doch die Suche nach einem perfekten Ranking gestaltet sich schwierig.

Das zeigen am besten die Mühen des deutschen Wissenschaftsrats. Das Gremium arbeitet seit 2004 an einem „Forschungsrating“. Wissenschaftler erarbeiten die Kriterien für ihre Fächer selber, um dessen Eigenheiten zu berücksichtigen. Qualität wie Quantität von Forschung soll abgebildet werden. Die Unis erhalten Noten auf den unterschiedlichsten Feldern, was online dokumentiert ist.

Bisher hat der Wissenschaftsrat drei Pilotrankings für Chemie, Soziologie und Elektrotechnik veröffentlicht. Doch vieles deutet darauf hin, dass das Ranking an seinen hohen Ansprüchen zu scheitern droht. So monieren teilnehmende Wissenschaftler, der Zeitaufwand sei kaum zu leisten. Dadurch sei ein Update pro Fach nur alle fünf bis zehn Jahre realistisch, ist zu hören. Einem so alten Ranking mangelt es an einem entscheidenen Kriterium: an Aktualität.

Ob der Wissenschaftsrat weitermacht, soll sich 2012 entscheiden. Dann will auch die EU-Kommission sagen, ob sie ein ähnliches Vorhaben für die europäischen Hochschulen vorantreibt. Bis auf weiteres wird es also bei herkömmlichen Rankings bleiben – trotz aller Schwächen.

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false