zum Hauptinhalt

Universität: Chancen für Schummler

Mit den meisten Software-Programmen lassen sich Plagiatoren nicht stoppen, haben Forscher der FHTW Berlin herausgefunden. Ein Programm entdeckte sogar keine einzige der Testfälschungen.

Debora Weber-Wulff gilt als Koryphäe, wenn es um das Aufspüren von Plagiaten in wissenschaftlichen Arbeiten geht. Dennoch hält die Professorin für Informatik an der Berliner Fachhochschule für Technik und Wirtschaft (FHTW) nicht allzu viel von Software-Produkten zur Erkennung geklauter Formulierungen. Zumal die Programme nicht halten, was sie versprechen.

„Wir müssen einander in der Wissenschaft vertrauen. Studierende sollten nicht unter Generalverdacht stehen, fremde Inhalte zu übernehmen“, sagte sie jetzt bei der Vorstellung ihrer Studie „Fremde Federn finden“. Gemeinsam mit Studierenden untersuchte Weber-Wulff die 14 gängigsten Software-Produkte zum Aufspüren von Plagiaten auf ihren Nutzen für Lehrende. Das Team ließ 20 mit verschiedenen Methoden kopierte Arbeiten testen, erstellte ein Ranking der verschiedenen Systeme und bewertete die Programme mit Schulnoten. Kriterien waren sowohl die Anzahl der aufgespürten Plagiate als auch die benötigte Zeit und die Nutzerfreundlichkeit.

Ein „sehr gut“ bekam kein einziger der elektronischen Spürhunde. „Am besten ist immer noch der Mensch“, sagt Weber-Wulff. Auf dem ersten Platz landete eine Software aus den Niederlanden: „Ephorus“ (www.ephorus.de) kam auf die höchste Trefferquote. Die Tester der FHTW gaben ihr 40 von 60 möglichen Punkten. Es wurde als einziges der 14 Systeme mit der Note „gut“ bewertet. Minuspunkte gab es für die Handhabung. Das Urteil der Fachfrau: Das Produkt sei brauchbar, um auf einen Fälschungsverdacht hinzuweisen.

Auf dem zweiten Platz und mit 35 Punkten als „befriedigend“ bewertet: Das deutsche System „Docoloc“ (www.docoloc.de). Im Gegensatz zu den anderen Programmen ist es auch in der Lage, übernommene Texte aus PDF-Dokumenten zu erkennen. Auf dem dritten Platz landeten gleich zwei englischsprachige Systeme: „Copyscape“ (www.copyscape. com), das von den Entwicklern von „Google Earth“ kreiert wurde, erreichte 34 Punkte. Die neueste Version von „Urkund“ (www.urkund.com) kam auf 35 Punkte. Auch die in deutschen Unis weit verbreitete Software „Turn it in“ (www. turnitin.com/static/plagiarism.html) erreichte mit 26 Punkten das Gesamturteil „befriedigend“, konnte im Ranking aber lediglich den achten Platz für sich verbuchen. Negativ fiel den Testern auf, dass bei „Turn it in“ Kopien aus „Wikipedia“ nicht gefunden wurden.

Komplett durchgefallen ist der kanadische Anbieter „Catch it first“ (www. catchitfirst.com). Die Wissenschaftler der FHTW gaben ihm blamable 0 von 60 Punkten, Schulnote „ungenügend“. Mehr als 30 Stunden brauchte „Catch it first“, bis es sein Ergebnis errechnet hatte. Und das lautete in allen 20 Fällen: „100 Prozent original“.

Die Betreiber des „Plagiarismfinder“, Sieger eines ersten Tests vor drei Jahren, verweigerten den kostenfreien Zugang für die Forscher und wurden somit diesmal nicht bewertet. Der Kostenfaktor ist nicht unerheblich bei der Plagiaterkennungs-Software. Mit „etwa 1000 Euro im Jahr“ müssten Dozenten für die Nutzung rechnen, sagte Weber-Wulff. Beim Tabellenletzten „Catch it first“ wird für jeden Test ein US-Dollar fällig.

Neben den Programmen, die kopierte Texte erkennen, untersuchten die FHTW-Wissenschaftler auch zwei Produkte, die bei mathematischen Arbeiten den Programmierungscode auf Ähnlichkeiten zu bereits bestehenden Werken abklopfen. Von den zwei getesteten Systemen bekam das Programm „Anti cut and paste“ (www.anticutandpaste.com) das Urteil „nicht zweckmäßig“. Der Konkurrent von der Uni Karlsruhe „J Plag“ (www.ipd.uni-karlsruhe.de/jplag) erhielt hingegen die Note „gut“. Allerdings sei das System bei größeren Datenmengen schnell überfordert.Pablo Silalahi

Das Ranking im Internet unter:

http://plagiat.fhtw-berlin.de/software

Pablo Silalahi

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false