Gesundheit : Was Rankings wert sind

Uni-Ranglisten werden immer wichtiger. Doch nur wenige sind seriös, sagen Kritiker

Tilmann Warnecke

An Hochschulrankings scheiden sich die Geister. Als „geisttötend“ verteufelte unlängst Gesine Schwan die Ranglisten. Sie würden „zur Oberflächlichkeit verführen“, kritisiert die Präsidentin der Viadrina-Universität in Frankfurt/Oder und ehemalige Präsidentschaftskandidatin der SPD. Rankings sind eine „wichtige Hilfe beim Vergleich der Hochschulen“, hält Johanna Wanka (CDU) dagegen, die brandenburgische Wissenschaftsministerin und Vorsitzende der Kultusministerkonferenz. Die Listen würden die Konkurrenz unter den Hochschulen erst richtig entfachen.

Unbestritten ist, dass die Rankings für viele Studenten inzwischen zu einer unentbehrlichen Hilfe bei der Studienplatzsuche geworden sind. Auch viele deutsche Professoren haben sich an die lange verpönten Listen inzwischen gewöhnt. Hochschulen verweisen stolz auf neue Rankings, wenn sie auf den vorderen Plätzen gelandet sind. Schließlich können gute Ergebnisse wichtige Argumente beim Kampf um immer knapper werdende öffentliche Gelder sein – und beim Werben um Studenten, die bald Gebühren an die Unis zahlen sollen. Eine Analyse der Zentralstelle für die Vergabe von Studienplätzen (ZVS) ergab, dass die Bewerberzahlen für Unis um 20 Prozent steigen, wenn sie sich in aktuellen Rankings vorne platzieren. Rankings sind zudem Zugpferde für die Magazine, die sie veröffentlichen. Kein „Focus“-Heft hatte im letzten Jahr eine höhere Auflage als das, das die Unirankings als Titelthema hatte. Selbst der „Playboy“ findet Unirankings attraktiv. Er klärte seine Leser vor einigen Jahren über „die schärfsten deutschen Universitäten“ auf.

Nicht immer können Studienbewerber, Studenten, Wissenschaftler und Politiker so leicht erkennen, ob die Ergebnisse eines Rankings tatsächlich ernst zu nehmen sind. Ein Vergleich von Rankings kann sogar regelrecht verwirren. Biologie-Studienbewerber zum Beispiel, die bei der Suche nach einer geeigneten Uni erst „Spiegel“ und dann den neuen, gestern erschienenen „Focus“ konsultieren. „Wo die Klügsten studieren“, will das Spiegel-Ranking zeigen. Die schlauesten Bio-Studenten lernen demnach in Bayreuth, Stuttgart und Leipzig. „Deutschlands beste Unis" laut der neuen „Focus“-Liste sind im Fach Biologie jedoch die Unis Heidelberg und Tübingen – die klugen „Spiegel“-Studenten von Bayreuth und Stuttgart landen im „Focus“ in der Mittelgruppe, Leipzig bei den Schlusslichtern.

„Grundsätzliche Zweifel“ hat deswegen Bernhard Kempen, der Vorsitzende des Hochschulverbandes, was die Seriosität vieler Kriterien betrifft, mit deren Hilfe die Hochschulen in eine Reihenfolge eingeordnet werden sollen. Kritiker wie Kempen führen mehrere Indikatoren an, bei denen Lesern eine objektive Beurteilung nur vorgegaukelt werde.

Beispiel Professorentipps: Bei vielen Rankings benoten Professoren, wie gut die deutschen Unis sind – schließlich sind sie die Experten und sollten den besten Überblick über ihr Fach haben. Ob die Tipps der Kollegen die Wirklichkeit in den Laboren und Hörsälen abbildet, bezweifeln aber auch viele Professoren. „Deutsche Professoren sind sehr unzuverlässig, was den Realitätsbezug angeht“, sagt Gesine Schwan. Vor allem die kleineren Unis würden viele Professoren gar nicht wahrnehmen; Unis, die sich verbessern, würden die Wissenschaftler erst Jahre später berücksichtigen.

Beispiel Promotionsquote: Diese Zahl gibt in Rankings an, wie viele Promotionen die Professoren im Jahr betreuen. Fachbereiche mit hohen Quoten werden dabei auch hoch gerankt – eine Interpretation, der nicht alle zustimmen. „Keine Promotion in fünf Jahren ist tatsächlich etwas wenig“, sagt Kempen. „50 Promotionen in fünf Jahren ist aber auch zweifelhaft. Das klingt nach Massenabfertigung.“

Beispiel Beteiligung: „50000 Studenten haben ausführlich Antwort gegeben, die bislang größte Umfrage unter deutschen Hochschülern“ – so wirbt das „Spiegel“-Ranking für sich. Eine hohe, also auch repräsentative Beteiligung? Gerd Grözinger und Wenzel Matiaske, zwei Wissenschaftler an der Uni Flensburg, rechneten nach und kamen wegen der hohen Zahl der gerankten Fächer auf einen Schnitt von nur 100 Teilnehmer pro Studiengang an einer Hochschule. Die Untergrenze liege sogar nur bei 18 verwertbaren Antworten. „Ein bei sozialwissenschaftlichen Befragungen unüblich niedriger Wert“, schreiben die Wissenschaftler in einer Studie. Hinter vorgehaltener Hand behaupten Unimitarbeiter zudem, dass Studenten von den Hochschulen extra für die verschiedenen Rankings gecoacht werden. Sie sollen passende Antworten geben, die die Uni in einem guten Licht erscheinen lassen. Offiziell bestätigen will das aber keine Uni.

Empfehlungen für seriöse Rankings hat Ende letzten Jahres der Wissenschaftsrat gegeben (siehe Kasten). Wie schwierig das Erstellen von hieb- und stichfesten Uniranglisten ist, zeigt der Einspruch, den der Osnabrücker Rechtswissenschaftler Jörn Ipsen gegen das Ranking des Centrums für Hochschulentwicklung (CHE) erhebt. Es sei „eine völlig unzuverlässige Erhebung“, sagt Ipsen.

Dabei gilt das CHE-Ranking als das differenzierteste deutsche Ranking. Es entspricht in vielen Punkten den Forderungen, die der Wissenschaftsrat aufgestellt hat. Studienbewerber erhalten Informationen in neun Kategorien wie „Forschung“, „Studium und Lehre“, „Ausstattung“ und „Internationale Ausrichtung“. In die Bewertung lässt das CHE in allen Kategorien mehrere Kriterien einfließen. Professoren und Studenten werden nach ihren Einschätzungen gefragt. Das CHE lässt zudem Fachbeiräte diskutieren, ob die gewonnenen Erkenntnisse wissenschaftlich zu vertreten sind.

Ipsen stellt dennoch die Methode in Frage, mit der das CHE die Forschungsleistung in seinem Fach misst. Das CHE stützt sich im Fach Jura auf zwei Datenbanken, mit denen es die Publikationen der Unis ermittelt. Diese gelten unter den Wissenschaftlern als wichtigster Indikator für ihre Leistungsfähigkeit. Als Ipsen die Ergebnisse des CHE mit der Zahl der Veröffentlichungen seiner Osnabrücker Kollegen abglich, kam heraus, dass mehr als die Hälfte ihrer Publikationen beim CHE nicht auftauchte. Bei manchen fehlten sogar 90 Prozent. Der Grund, so Ipsen: Die Datenbanken würden fremdsprachige Literatur nicht berücksichtigen. Er und seine Kollegen verfassten inzwischen aber viele Berichte auf Englisch. International besonders engagierte Fachbereiche wie sein Osnabrücker würden so besonders benachteiligt.

Auch für die Wirtschaftswissenschaften wurden auf der Grundlage unterschiedlicher Datenbanken bereits sehr widersprüchliche Ergebnisse ermittelt. Das CHE fragt für das Fach mehrere nationale Fachdatenbanken ab. Der Wissenschaftsrat hingegen bemühte für eine Studie den internationalen Social Sciences Citation Index (SSCI). Von den zehn publikationsaktivsten Hochschulen des Wissenschaftsrates kamen beim CHE nur insgesamt fünf unter die ersten zehn. Die Uni Bonn, beim Wissenschaftsrat auf Platz Eins, erreicht beim CHE Rang 39.

Ipsen bemängelt, dass das CHE die Literatur auch falsch wertet. Es vergibt Punkte für die Länge der Publikationen: Für 1 bis 2 Seiten gibt es 0,1 Punkte, 3 und 4 Seiten bringen 1 Punkt, 5 bis 9 Seiten 4 Punkte. Der höchste Wert ist 15 Punkte – für Publikationen ab 100 Seiten. Kurze Aufsätze erhalten Zusatzpunkte, wenn sie in besonders wichtigen Zeitschriften erscheinen. Dissertationen, Habilitationen und andere Monographien würden so benachteiligt, sagt Ipsen. Dabei würden in ihnen noch immer die wichtigen neuen Erkenntnisse veröffentlicht. Im digitalen Zeitalter müsste zudem die Zeichen- und nicht die Seitenzahl der Maßstab für die Länge sein. Da das CHE nur die Werke von Professoren zähle, bliebe auch die Arbeit seiner Mitarbeiter unberücksichtigt. „Wir arbeiten in Teams. Der wissenschaftliche Nachwuchs wird ausgeblendet“, sagt Ipsen.

Petra Giebisch vom CHE räumt ein, dass das Institut den von Ipsen kritisierten Teil aufgrund der Mängel zurückziehen musste. Dies sei allerdings vor der Veröffentlichung des aktuellen Studienführers geschehen, der im Mai herauskam. Der Fachbeirat Jura hätte aufgrund der Einwände Ipsens rechtzeitig die Notbremse gezogen. Insofern hätten die wissenschaftlichen Kontrollmechanismen beim Erstellen des Rankings funktioniert, sagt Giebisch. Beim letzten Ranking vor drei Jahren hatten sie allerdings noch nicht funktioniert: Da wurde das Jura-Ranking ohne Einwände durchgewunken – obwohl mit den gleichen Datenbanken wie jetzt gearbeitet wurde.

Könnte es ähnliche Wettbewerbsverzerrungen auch in anderen Fächern geben? Ja, sagt Ipsen. In den Sozialwissenschaften beispielsweise seien Wissenschaftler, die auf Englisch publizieren, ebenso benachteiligt. Nach dem Punkte-System würden die Publikationen in vielen Fächern bewertet.

Das CHE weist diesen Vorwurf zurück. Womöglich werden die Rankings aber auch auf längere Sicht für Streit sorgen. Denn mitunter fehlt bisher schlicht das Material, um Rankings zu erstellen, die wissenschaftlichen Standards genügen wollen. In vielen Fächern sei es sehr schwierig, die Lehre und Forschung an den Unis angemessen abzubilden, sagt Giebisch. In manchen, wie den Politikwissenschaften, gebe es überhaupt keine ausreichenden Datenbanken. Bis ein wissenschaftlich rundum haltbares Ranking auf den Markt kommt, gibt es also noch erheblichen Forschungsbedarf.

0 Kommentare

Neuester Kommentar
      Kommentar schreiben