Hamburgs Uni-Präsident Dieter Lenzen : "Rankings sind Unfug"

"Gravierende methodische Mängel": Der Präsident der Uni Hamburg, Dieter Lenzen, erklärt, warum seine Hochschule Ranglisten boykottiert und welche Alternativen er sieht.

Untersucht. „Gravierende methodische Mängel“ sieht Dieter Lenzen bei den meisten Rankings, die die Leistungen von Hochschulen und Forschern bewerten wollen. Hier Wissenschaftler bei einem Symposium zur Systembiologie an der Uni Hamburg.
Untersucht. „Gravierende methodische Mängel“ sieht Dieter Lenzen bei den meisten Rankings, die die Leistungen von Hochschulen und...Foto: UHH/Schell

Herr Lenzen, Ihre Uni hat angekündigt, sich nicht mehr an Ranglisten und Umfragen beteiligen zu wollen. Warum?

Die Zahl der Anfragen für irgendwelche Untersuchungen und Datenlieferungen hat unglaublich zugenommen. Das passiert ein bis zwei Mal pro Woche. Oft richtet sich das an 20, 50 oder 100 Hochschullehrer, an die Verwaltung und an die Leitung. Unser Kerngeschäft ist aber nicht die Lieferung von Daten, sondern Forschung und Lehre. Die Rankings, die aus diesen Daten entstehen, haben gravierende methodische Mängel. Lesern wird suggeriert, die Uni auf Platz sieben sei tatsächlich schlechter als die auf Platz fünf. Diese Rankings sind Unfug, vor allem wenn sie gemischte Parameter zur Ermittlung des Ergebnisses heranziehen. So entstehen Anlässe zu Entscheidungen von Studierenden, Eltern, Geldgebern, Politikern, die hoch zufällig sind. Das wollen wir verhindern. Wir wollen auch nicht mehr dazu beitragen, dass Unis national und international ständig aufeinandergehetzt werden.

Die Uni Hamburg landet in diversen Rankings eher selten an der Spitze. Wollen Sie auch wegen dieser mittelmäßigen Ergebnisse nicht mehr in Ranglisten auftauchen?

Wir haben den Zeitpunkt für unseren Vorstoß bewusst gewählt, weil wir ein Meta-Ranking angefertigt haben, eine Zusammenschau aller Rankings. Danach würde die Uni Hamburg unter den rund 300 deutschen Hochschulen auf Platz 15 liegen. Es ist also Quatsch zu sagen, wir seien mittelmäßig.

Damit schmückt man sich aber gerne?

Nein, wir haben das Meta-Ranking nur gemacht, damit man nicht sagen kann, wir wollten uns nicht in die Karten gucken lassen. Wir brauchen den Vergleich nicht zu scheuen.

Dieter Lenzen, 64, leitet seit dem Jahr 2010 die Universität Hamburg als Präsident. Zuvor war der Erziehungswissenschaftler Präsident der Freien Universität Berlin.
Dieter Lenzen, 64, leitet seit dem Jahr 2010 die Universität Hamburg als Präsident. Zuvor war der Erziehungswissenschaftler...Foto: UHH/Dichant

Inwieweit beeinflussen Ranking-Ergebnisse tatsächlich die Mittelvergabe durch die Politik?

Ganz linear passiert das natürlich nicht. Die Verlautbarungen einzelner Landesregierungen legen aber nahe, dass man Entscheidungen auch auf dem Ranking des Centrums für Hochschulforschung basieren lässt. Natürlich darf staatliches Handeln aber nur auf staatlich beurkundeten Zahlen beruhen. In den USA hat es der Supreme Court sogar verboten, private Rankings zur Grundlage für die einkommenserhebliche Bewertung von Wissenschaftlern zu machen.

Universitäten sind der Forschung verpflichtet. Ist es vertretbar, dass sie sich der Erforschung der eigenen Stärken und Schwächen entziehen?

Bei solchen Befragungen handelt es sich doch überhaupt nicht um Forschung. Bei einem Forschungsprojekt der DFG über Universitäten würden wir dagegen immer davon ausgehen, dass es methodisch okay ist und mitmachen. Ein anderes Beispiel: Wenn das Ahelo-Projekt der OECD tatsächlich durchgeführt wird …

... eine Art Pisa-Studie für Unis, bei der die Kompetenzen von Studierenden untersucht werden sollen und für die gerade eine Machbarkeitsstudie durchgeführt wird …

… könnten interessante Erkenntnisse zu erwarten sein. Kernfragen sind doch: Was muss eine Uni im Unterricht leisten? Wie und wo können Studierende ihre Wissensstrukturen am besten verändern? Ahelo könnte vielleicht Antworten darauf geben, ob und wie wir das messen können.

Für Deutschland ist das Ranking des Centrums für Hochschulentwicklung (CHE) maßgeblich. Dem CHE wird zugutegehalten, differenziert vorzugehen. Trotzdem kommt es zu Boykotten, jüngst von den Soziologen, die kritisieren, die Befragung von Studierenden sei empirisch unzulänglich. Sehen Sie beim CHE auch Verzerrungen?

Na klar. Das CHE mag zwar drei Gruppen von Hochschulen bilden anstatt einzelne Plätze zu vergeben. Doch auch da wird suggeriert, man könne die Gruppen trennscharf unterscheiden, was Unsinn ist. Es kommen andere Probleme hinzu. Ich will das an einem Beispiel für die FU illustrieren, das mir noch präsent ist. Da wurde die Jurisprudenz sehr schwach bewertet, was im Wesentlichen an der schlechten Bibliothek liegen sollte. Nun ist die juristische FU-Bibliothek die größte in Europa, da bekommt man alles, was man sich vorstellen kann. Wir sind diesem Widerspruch nachgegangen. Folgendes stellte sich heraus: Ein Professor hatte sich über Budgetkürzungen für die Bibliothek geärgert. Er sagte allen Studenten: Ihr werdet demnächst befragt, ihr müsst alle schreiben, die Bibliothek ist schlecht, dann kriegen wir wieder mehr Geld. Das haben die Studenten dann gemacht. Es gibt eine Fülle von Beispielen, wo Hochschulleitungen, Institute, Studierende Einfluss nehmen auf die Antworten und so Verzerrungseffekte erzeugen.

Das CHE lädt Unis ein, an Verbesserungen mitzuarbeiten. Warum klappt das nicht?

Wir haben den Casus in der Hochschulrektorenkonferenz diskutiert. Wir sind der Auffassung, dass das nur dann akzeptabel ist, wenn wir die Parameter und die Untersuchungsmethoden selber bestimmen können.

Der Wissenschaftsrat hat für einige Fächer ein Forschungsrating erarbeitet, das wissenschaftlichen Maßstäben genügen soll. Die Historiker sind dennoch ausgestiegen: Der Ertrag lohne den Aufwand nicht, hieß es. Taugt auch dieses Rating nichts?

Es gibt zwei sinnvolle Leistungsbewertungsverfahren. Das eine ist die anlassbezogene Evaluation, die der Wissenschaftsrat seit langem erfolgreich durchführt. Das zweite Instrument ist in der Tat das Rating. Hier erfahren Hochschulen, wo sie ungefähr im Gefälle der Bundesrepublik stehen, ohne dass die Bewertung auf einfache Skalierungen reduziert wird. Seriöse Verfahren kosten aber Zeit und Geld. Der Aufwand darf dennoch nicht zu groß werden. Man könnte einen Kerndatensatz erheben, der auch für andere Zwecke herangezogen werden kann. Etwa für die Berichte, in denen die Hochschulen jährlich den Landesregierungen ihre Leistungen darlegen. Das würde die Hochschulen insgesamt entlasten. Das setzt voraus, dass sich Bund und Länder auf die Erhebung eines solchen Kerndatensatzes einigen. Eine Einrichtung müsste die Daten pflegen. Das könnte zum Beispiel eine zukünftige Aufgabe des Hochschul-Informations-Systems (HIS) sein.

Für den Vergleich europäischer Hochschulen finanziert die Europäische Kommission ein multidimensionales Ranking. 2013 soll es erste Ergebnisse geben. Ist ein öffentlich getragenes Ranking eine Alternative?

Staatlichkeit schützt nicht vor unseligen Rangfolgen, allenfalls vor falschen Daten. Man wird sich über die Legitimation unterhalten müssen. Es wird häufig argumentiert, die Leistungsschwächeren würden sofort die Ärmel aufkrempeln. Dafür gibt es keine empirischen Evidenzen. Sozialpsychologisch hat es eher den gegenteiligen Effekt. Der Einzelne guckt sich an, wo seine Universität oder sein Fach steht, und sieht: Die Besten können wir nie erreichen. Und er wirft schnell die Brocken hin.

Unirankings wollen Studienbewerbern den Vergleich von Unis einfacher machen. Welche Alternativen sehen Sie für Abiturienten, die bei der Suche nach einem Studienplatz Informationen suchen?

Ob die Bibliothek tausend Bücher mehr oder weniger hat, ist im Studienalltag doch irrelevant. Wenn Studierende ihr Studium abbrechen, waren sie sich meistens über die Inhalte nicht im Klaren. Nehmen Sie Studienanfänger in der Soziologie. Die müssen für sich klären: Interessieren sie sich für eine quantitative Orientierung der Soziologie? Oder für Sozialtheorien? Welche Uni ist bei meinen Interessen die richtige? Da helfen Rankings nicht weiter. Wir müssen Studienanfängern also qualitative Informationen geben, nicht arithmetisierte. Self Assessments, wie sie einige Unis anbieten, sind da ein Schritt in die richtige Richtung.

Gehen Sie davon aus, dass andere Unis ihrem Beispiel folgen werden?

Wir haben bereits mehrere Anrufe von Hochschulleitungen erhalten, die wissen wollen, wie man das macht. Zumindest wird es einen Diskussionsanstoß geben, wie man Rankings interpretiert und dass man viele als Spielchen betrachten sollte. Der Erfinder des Times Higher Education Rankings hat gesagt: Ich würde meine Entscheidungen nie von Rankings abhängig machen. Entwaffnender kann man es nicht formulieren.

Twitter

Folgen Sie unserer Wissen und Forschen Redaktion auf Twitter: