Mit ‘Transparenz’ getaggte Artikel

Online-Petition unterschreiben: Google soll Buchsuche (nicht nur) für Plagiatsdetektion öffnen

Freitag, 27. Juni 2014

Unter dem Titel “Wir fordern von Google Volltexte zum Gratis-Downloaden! Schluss mit dem Bücher-Monopol!” habe ich heute eine Online-Petition gestartet. Ich hoffe sehr, dass viele diese unterschreiben werden, die das Anliegen mit mir teilen. Ich bitte deshalb zunächst alle Blog-Leserinnen und -Leser um eine effiziente Streuung in den sozialen Medien (in denen ich, ich gestehe es, immer noch ein bisschen nachlässig bin). Alle an der Sache Interessierten bitte ich, den Wortlaut der Petition genau durchzulesen und bei Einverständnis freue ich mich über Ihre Unterschrift. Diese ist in veröffentlichter Form auch anonym möglich. Diskussionen zu Abänderungen von Formulierungen können hier im Blog oder auf der Seite der Petition geführt werden.

Hier die Petition im Wortlaut:

Wir fordern von Google Volltexte zum Gratis-Downloaden! Schluss mit dem Bücher-Monopol!

Es ist eine Perversion unserer Zeit, dass ein amerikanischer Computerkonzern auf bald 15 Millionen Digitalisaten von gedruckten Werken der Menschheit “sitzen” wird und wir Menschen – wir Autorinnen und Autoren, wir Wissenschaftlerinnen und Wissenschaftler, wir Softwareentwickler und -anbieter usw. – zu diesen kaum Zugang haben und wohl auch kaum haben werden. Bis auf den Suchschlitz der Google Buchsuche bleiben uns diese digitalisierten Bücher so gut wie versperrt.

Nur in Spezialfällen veröffentlichen kooperierende Bibliotheken eingescannte Volltexte auf ihren Servern, wenn dies mit Google vertraglich so vereinbart wurde. Den Rest, also Millionen von Titeln, verarbeitet Google im “stillen Kämmerlein” im Googleplex – wahrscheinlich, um eine künstliche Wissensintelligenz zu schaffen, mit der man in die Zukunft sehen und einmal Unmengen an Geld verdienen wird.

Wir fordern daher:

1. Freie Verfügbarkeit von editierbaren Volltext-Versionen der Digitalisate für die jeweiligen (Ko-)Autorinnen und (Ko-)Autoren der entsprechenden Einzelwerke, Sammelbände und Zeitschriften: Auf Grund der raschen Digitalisierung und der häufigen Veränderungen von Hard- und Software seit ca. 1990 haben viele Autorinnen und Autoren gar keine digitalen Versionen ihrer älteren Bücher und anderer Veröffentlichungen mehr zur Verfügung.
Google Books hat sie – wir fordern, dass auf Antrag (d. h. mittels Webformular auf Google Books) Autorinnen und Autoren gratis die Vollversionen ihrer Digitalisate – nur für den Eigengebrauch – erhalten können. Es ist ein unhaltbarer Zustand, dass Google und die kooperierenden Bibliotheken diese Digitalisate “horten”, die zum Teil ungefragt und oft unter Umgehung der herrschenden nationalen Urheberrechte erstellt wurden – und nun bekommen wir, die Urheberinnen und Urheber, diese nicht zu Gesicht.

Dasselbe gilt meines Erachtens auch für Verlage: Auch sie sollten das Recht haben, von Google die Digitalisate zurückzubekommen.

2. Freie Verfügbarkeit von editierbaren Volltext-Versionen der Digitalisate von einer mittels Suchmaschine zu bestimmenden Teilmenge von Werken zum exklusiven Zweck der Forschung (siehe etwa hier: de.wikipedia.org/wiki/Google_Books#Anwendung_in_der_Forschung): Wir Wissenschaftlerinnen und Wissenschaftler wollen das Feld der Big-Data-Szientometrie und -Wissenssoziologie nicht Google alleine überlassen. Hier sollen alle Wissenschaftlerinnen und Wissenschaftler, die zum Thema forschen oder forschen wollen, freien Zugang haben – und zwar weltweit, auf Antrag bei Google. Freilich betrifft dies nur Titel, bei denen das Urheberrecht bereits abgelaufen ist. Aber gerade diese sollten im Sinne der Wissenschafts- und Forschungsfreiheit auch tatsächlich frei sein!

3. Freie Verfügbarkeit von ALLEN editierbaren Volltext-Versionen der Digitalisate für die führenden Anbieter von Plagiatssoftware: Es ist ein Anachronismus und ein ebenso unerträglicher Zustand, dass Google hier keine Kooperationen (mehr) gestattet bzw. über das Google-API diese nicht mehr ermöglicht. Da bei jeder automatisierten Plagiatssuche derzeit Google Websuche und Google Buchsuche ausgespart werden müssen, fehlen die beiden wichtigsten Ressourcen im Kampf gegen Plagiate. Google muss hier Farbe bekennen: Wenn Google selbst im Rahmen der Websuche und/oder der Buchsuche keine eigene Plagiatssuchmaschine bauen möchte, die das Hochladen und Vergleichen von komplexeren Dokumenten (und nicht bloß Wortketten im Suchschlitz) erlaubt, dann muss Google zumindest mit den weltweit führenden Betreibern von Plagiatssoftware (wie Turnitin, Urkund, PlagScan u. a.) kooperieren. Google würde damit einen wichtigen Beitrag zur Reinheit der Wissenschaft leisten.

Und gar nicht daran zu denken, was die Wissenschaft womöglich alles entdecken würde, wenn die Google-Buch-Digitalisate einer Plagiatssuchmaschine zugeführt werden würden, die einen intrinsischen Textvergleich aus einem Gesamt-Textkorpus erlaubt: Wer weiß schon, wer in der Wissenschaftsgeschichte (noch) aller von anderen abgeschrieben hat ;-)!

FREIHEIT, TRANSPARENZ, FREIES WISSEN, INFORMATIONEN FÜR ALLE – darum geht es doch Google. Aber bei der Buchsuche macht Google genau das Gegenteil!

Sie sind selbst eine Autorin/ein Autor, eine Wissenschaftlerin/ein Wissenschaftler, ein/e Softwarentwickler/in und in den Bereichen des Information Retrieval, des Text Mining usw. tätig? Sie haben im Bibliothekswesen zu tun? Sie sind Lehrender und wollen effizienter gegen Plagiate vorgehen? Sie sind SchülerIn, StudentIn, Leserin oder Leser und es ärgert sie, dass Google uns Millionen von Digitalisaten nur häppchen- oder schlitzweise darbietet?

DANN UNTERSCHREIBEN SIE DIESE PETITION!

Nur zahlreiche Unterschriften werden zu Medienberichterstattung führen und nur so kann die öffentliche Meinung schließlich Druck auf Google ausüben!

Im Namen aller Unterzeichner/innen.

Dresden, 27. 06. 2014″

Update: Was mit dem Google-Books-Bestand an Forschung alles möglich wäre, zeigt das folgende Bild erst in Ansätzen (zur Vergrößerung bitte Bild anklicken):

Google Buchsuche Forschung Wort Plagiat

Quelle: https://books.google.com/ngrams

Nächste Revolution nach Plagiatswikis: Deep-Web-Plagiatssuchmaschine kommt

Samstag, 31. Mai 2014

“‘Wir wenden zurzeit ein Verfahren an, das alle Dissertationen einer Hochschule miteinander vergleicht’, sagt Plagiatsexpertin Debora Weber-Wulff, Professorin für Informatik an der Hochschule für Technik und Wissenschaft Berlin. 4000 Charité-Promotionen hat das Netzwerk laut Weber-Wulff auf seinen Rechnern gespeichert, die nun erst digital, dann händisch abgeglichen werden sollen. Eine weitere Dissertation, ebenfalls an der Charité mit dem Dr. gekrönt, enthalte auf mehr als der Hälfte der Seiten nicht kenntlich gemachtes fremdes Gedankengut. ‘Wir haben einige Arbeiten an der Charité als verdächtig eingestuft, nun werden sie von unserem Team in ehrenamtlicher Tätigkeit manuell überprüft’, sagt Weber-Wulff.”

Quelle: Spiegel Online

Es kündigt sich eine technologische Revolution an, die für eine neue Dimension der Transparenz sorgen und Plagiarismus zukünftig erschweren wird: Der erste Schritt war die Erfindung des Plagiatswikis und des Barcodes zur Visualisierung von Plagiatsintensität. Nur noch Ewiggestrige nennen das “Pranger”. Immer deutlicher zeigt sich der immense Wert dieser Rekonstruktionen und Veröffentlichungen für die Wissenschaft.

Nun kündigt sich der zweite Schritt an: Längst liegen tausende Volltexte von Dissertationen auf Hochschulservern brach und werden nicht intrinsisch miteinander verglichen – ein unhaltbarer Zustand. Keine Web-Suchmaschine und auch derzeit keine Plagiatssoftware kommen verlässlich an alle PDF-Files ran. Nun zeigen Debora Weber-Wulff & Co., dass es einer intrinsischen Textkorpus-Suchmaschine bedarf, um Plagiarismus in Hochschulschriften untereinander aufzudecken, aber auch, um intrinsische Plagiatsfragmente zu identifizieren, die auf extrinsische Quellen hinweisen. Die Fragestellung und Arbeitslogik dieser Suchmaschine ist eine andere als die bei der Google Websuche – mit Glück könnte hier also etwas ganz Neues geboren werden.

Bleibt das Problem zu lösen, wie man die Google Buchsuche systematisch auf Plagiatsquellen durchforsten kann. Ihr werter Plagiatsgutachter hat wiederholt hier im Blog darauf hingewiesen. Ein Suchexperte sagte mir: Hier muss man Google hacken. Na dann mal los! Google selbst ist offenbar an dem möglichen Geschäftsmodell Plagiatssuchmaschine nicht interessiert. Warum öffnet die Bayerische Staatsbibliothek nicht ihren digitalen Fundus für die Plagiatsdetektion?

Die Charité zeigt sich an der VroniPlag-Software indes bereits interessiert, berichtete der Spiegel gestern. Nun müssen auch die großen Bibliotheken und vor allem die DNB für diese Innovation gewonnen werden. Zu verdanken haben wir das softwaretechnisch übrigens alles dem Holländer Dick Grune und seinem SIM_Text Similarity Tester. Er hat im Jahr 1989 wohl kaum abschätzen können, dass er mit seinem Paper “Het detecteren van kopieën bij informatica-practica” einmal zum Vater der Plagiatssuchmaschinen wird. – Nebenbemerkung: Auch die Software Ihres werten Plagiatsgutachters basiert auf SIM_Text.

Von Münster nach Berlin: Das Mediziner-Doubletten-Syndrom erfasst nun auch die Charité

Dienstag, 27. Mai 2014

Es war ja fast zu erwarten: Der “Flächenbrand” zu Münster kann auch anderswo entfacht werden. Nun widmet sich VroniPlag Wiki also der Charité. VroniPlag startete die Aufarbeitung mit einer komplett aus einer zwei Jahre älteren Doktorarbeit plagiierten Dissertation. Die absurde Übereinstimmung zeigt sich schon bei den Titeln in der DNB-Datenbank:

“Onkologische Langzeitergebnisse, Inkontinenz und Spätkomplikationen nach transperitonealer laparoskopischer radikaler Prostatektomie ohne Nerverhalt: Follow up von 700 Patienten, operiert in den Jahren 1999-2005 an der Klinik für Urologie der Charité Mitte” von Anita Lisowski (2010)

&

“Onkologische Langzeitergebnisse, Inkontinenz und Spätkomplikationen nach transperitonealer laparoskopischer radikaler Prostatektomie: Follow up von 1000 Patienten, operiert in den Jahren 1999 – 2004 an der Klinik für Urologie der Charité Mitte” von Ramin Mansour (2008)

Das ist natürlich erneut große Wissenschaftssatire – und gleichzeitig ist es ungemein verstörend, dass solche Dinge auch (gerade?) im sensiblen Bereich der medizinischen Forschung und des Umgangs mit Patientenakten erfolgen. Vergleiche zum Innsbrucker Urologie-Skandal drängen sich auf.

Und wieder sieht man anhand der aktuellen Aktivitäten im VroniPlag Wiki, dass dieses schamlose Plagiat auch an der Charité kein Einzelfall sein dürfte.

Wir bräuchten nun eine Software, die zunächst mal nach medizinischen Dissertationstitel-Doubletten, -Tripletten etc. in der Datenbank der DNB sucht. Ich finde etwa 56.503 medizinische Dissertationen zwischen 2000 und 2014, die als Online-Ressourcen verfügbar sind (das Ergebnis scheint mir zu hoch zu sein, aber die DNB-Suche spuckt das aus). Ich denke, wir würden alleine nach einer Analyse von Titel-Konkordanzen staunen – von einem intrinsischen Vergleich aller Volltexte ganz zu schweigen. Auf jeden Fall wäre dies im Moment ein höchst sinnvolles Forschungsprojekt. Wer traut sich, dafür öffentliche Fördermittel zu verlangen?

Update: Die Arbeitsweise in der Medizin gibt Rätsel auf. Dank eines Hinweises von “Matthias_H” links die Zusammenfassung einer Dissertation an der Charité aus dem Jahr 2008, rechts die Zusammenfassung einer Dissertation an der Charité aus dem Jahr 2007. Die jüngere Dissertation zitiert die ältere kein einziges Mal. Dennoch sind die Entlehnungen in der Zusammenfassung offensichtlich. Was soll das?

Textvergleich mit http://de.vroniplag.wikia.com/wiki/Quelle:Textvergleich. Bitte anklicken:

Zusammenfassungsdoublette_2_1

Zusammenfassungsdoublette_2_2

 

Plagiatsdetektion und Google-Intelligenz

Samstag, 22. März 2014

Inspiriert von der Titelgeschichte über Google im “Spiegel”, Heft 10/2014, denkt Ihr werter Plagiatsgutachter seit Tagen nach längerer Zeit mal wieder nur noch an das Tun und Lassen von “vielen der klügsten Menschen der Welt” in den sogenannten “geheimen Labors” in Mountain View. Was geschieht hier? Was kommt?

Klar, die kommende Suche wird fragenbasiert sein, auf Sprach- und/oder Stimmerkennung beruhen und wohl auch einen Blick in die Zukunft gestatten – oder zumindest wird die Google-Intelligenz Optionen, Varianten aufzeigen können. Heute in der Früh bemühte ich mich etwa vergeblich (mit den Mitteln des Eintippens von Schlüsselwörtern und des Durchforstens von Trefferlisten, die wohl schon in wenigen Jahren anachronistisch erscheinen werden), die folgenden Fragen im Suchschlitz zu beantworten: Welches Yogainstitut in Dresden bietet kompetentes Rücken- bzw. Wirbelsäulenyoga an? Und: Welche Restaurants in Dresden haben derzeit welche Bärlauchgerichte im Angebot? Beide Fragen kann ich mit den gegenwärtigen Suchtools nicht zufriedenstellend beantworten. Ich hätte nichts gegen eine Google-”Intelligenz”, die mir hier hilft, indem sie – so steht es im “Spiegel” geschrieben – die “unsichtbaren Verbindungslinien der Welt” aufzeigt. Ich hätte auch nichts gegen eine Google-Intelligenz (dann wohl zu Recht ohne Anführungszeichen) in Form eines Google-Orakels, dem ich Fragen zur Zukunft stellen kann: Wie wird diese oder jene juristische Auseinandersetzung ausgehen? Welche nächsten Schritte sind zu empfehlen? Und natürlich auch: Wie ist es um die Zukunft meiner Gesundheit, meiner Beziehung, meiner Kinder etc. bestellt? Das sind alles spannende Themen, wenn nicht sogar die spannendsten Themen, die die Menschheit im Moment beschäftigen. Demütig blicke ich vom Dresdner Weißen Hirsch nach Mountain View: An Googles künstlicher Intelligenz müsste man jetzt mitarbeiten! Da erscheint doch alles andere als Pipifax, oder?

Aber nun zum eigentlichen Thema: Die Google-Intelligenz wird, so meine Annahme, neun von zehn Schritten in der Plagiatsdetektion automatisiert erledigen können. Und das ist gut so! Ihr werter Plagiatsgutachter hat soeben mal wieder eine komplexere Überprüfung abgeschlossen. Auch in der Plagiatsdetektion geht es um nichts anderes als um die “unsichtbaren Verbindungslinien” im Diskursuniversum. Mit den derzeitigen Werkzeugen sehen wir etwas, das wir vor zehn oder zwanzig Jahren noch nicht gesehen haben. Der Weg zur Enthüllung ist aber ein mühsamer (und deshalb hat er auch seinen Preis ;-)).

Anhand der soeben abgeschlossenen Überprüfung möchte ich das Verfahren rekonstruieren (ohne zu viele Details zu verraten): Eine in Druckfassung ca. 400 Seiten umfassende Dissertation soll überprüft werden. Alleine ca. 60 Seiten umfasst das Literaturverzeichnis. Einen solchen Literaturkorpus kann niemand einscannen. Vorausgesetzt, Google hätte alle Druckwerke der Welt (wirklich alle) bereits eingescannt, wäre das alles kein Problem. So aber sehen die nächsten Schritte wie folgt aus: Eine Stichprobe aus den Literaturtiteln muss gezogen werden (dafür gibt es Erfahrungswerte; aber auch hier könnten Algorithmen schon mitmischen: Häufigkeit der Zitierungen, Länge der Zitate im Verhältnis zum umgebenden Fließtext etc.). Diese Literaturtitel müssen (meist per Fernleihe) bestellt werden, da es sich oft um spezielle Fachliteratur handelt – Wartezeit bis zu zwei Wochen. Dann muss eingescannt werden, in diesem Fall waren es knapp zwei Dutzend Druckwerke, darunter einige ca. 600 Seiten umfassende Wälzer. Der ‘Spaß’ am Scanner dauerte alleine mehr als drei Tage. Die eingescannten Druckwerke werden dann mit OCR-Software lesbar gemacht und die Titel mit der Dissertation abgeglichen, mittels Text-mit-Text-Vergleichssoftware. Alleine der Vergleich des Referenztextes von ca. 400 Seiten mit ca. 10.000 Seiten Vergleichsliteratur lässt die Augen müde und den Rücken krumm werden. Erst jetzt, nachdem die markierten Verdachtsstellen extrahiert wurden, beginnt die engere geistige Arbeit des Plagiatsdetektors: Handelt es sich um zulässiges, weil als indirektes Zitat ausgewiesenes ‘Umschreiben’ oder um unzulässiges Abschreiben?

Eine Google-Intelligenz könnte alle mühsamen Arbeitsschritte für mich erledigen: Die Vergleichstitel wären bereits eingescannt und auch schon editierbar; ich müsste einfach das Referenzwerk auswählen und auf “Vergleiche!” klicken. Das wär’s! Oder noch besser: Die Google Buchsuche hat schon in jedem Werk bereits Gesagtes und/oder Plagiatsverdächtiges markiert (freilich exklusive direkter Zitate). Damit hätten wir eine Messlatte für Redundanz in der Wissenschaft, und wirklich Neues wäre sichtbar. Ich fordere also eine “Google Text Intelligence“. Oder noch besser: Ich bewerbe mich hiermit bei Google ;-)! Und wenn Google nichts von sich hören lässt, dann möchte ich zumindest mit meinen bescheidenen Mitteln und hier vor Ort im Team einen Beitrag zu dem leisten, was die Zukunft bringen wird.

***

Mit den Gefahren dieser Entwicklung habe ich mich mit Kollegen schon 2007 auseinandergesetzt. Auch das Thema Blick in die Zukunft mit Google ist in diesem Bericht schon enthalten. Immer wieder lesenswert ist in diesem Zusammenhang auch das Buch “Die Google-Falle” (2008) des Journalisten Gerald Reischl. Die grundlegende Befürchtung war ja immer, dass wir unseren Verstand sukzessive abgeben, umso mehr Dinge die Google-Intelligenz für uns erledigen kann (der “Navi-Effekt”). Das “Internet der Dinge”, die “mitdenkenden” Kühlschränke und Fußbodenheizungen passten hier ins Bild.

Vor einigen Jahren war auch Ihr werter Plagiatsgutachter noch Techno-Pessimist, d. h. ein Vertreter der “Old-School-Printsuche” und er stand Softwarelösungen wie auch Open Access ablehnend gegenüber. Doch die Situation hat sich geändert, eigentlich seit Guttenbergs Plagiat. Mit der zunehmenden Komplexität der Textmengen und Fragestellungen (siehe obiges Beispiel) sind Softwarelösungen unumgänglich geworden. Ich frage wieder mal öffentlich nach: Warum bieten Google Books und Google Scholar keine Plagiatsdetektion an? Warum fordert das die Wissenschaft nicht? Warum geben die großen Bibliotheken der Welt, die die Scans von Google erhalten haben, nicht ihre digitalen Archive für die Plagiatssuche frei?

Der Fall Friedman/Grün: Wer schrieb von wem ab, oder gab es eine gemeinsame Festplatte?

Mittwoch, 04. September 2013

Ihr werter Plagiatsgutachter hat seine Dokumentation knapp eine Woche lang schön brav zurückgehalten. Denn der Fall ‘gehörte’ und ‘gehört’ meinem wertgeschätzten Kollegen Martin Heidingsfelder, der mich vor genau sieben Tagen von seinen ersten Funden informiert hat. Nun hat Heidingsfelder allerdings selbst gestern auf Twitter eine ominöse Nachricht hinterlassen, und “Erbloggtes”, der irgendwie immer alles auch schon zu wissen scheint, lieferte heute morgen den Weiterdreh. Damit ist die Katze aus dem Sack, und die Sache gilt im Netz als publiziert.

Aus Heidingsfelders Twitter-Account

Worum geht es? Dazu zunächst eine kurze Chronologie:

* Am 15. Oktober 2008 publiziert der deutsche Philosoph Klaus-Jürgen Grün den kurzen Text “‘Effekte an sich’ – Sein-können wie Gott” im “IF-Blog”.

* Im Jahr 2010 promoviert der allseits bekannte Michel Friedman bei Klaus-Jürgen Grün mit der Schrift “Schuldlose Verantwortung“. Grün hat schon vorher mit Friedman wissenschaftlich zusammen gearbeitet und etwa 2008 den Sammelband “Entmoralisierung des Rechts” mit Friedman herausgegeben, zusammen mit dem ebenfalls allseits bekannten ehedem konstruktivistisch denkenden Hirnforscher Gerhard Roth (wir erinnern uns: “reales Gehirn” vs. “wirkliches Gehirn”). Der Text aus dem Blog findet sich in diesem Sammelband nicht.

* Im August 2013 entdeckt Martin Heidingsfelder nach dem Hinweis eines Professors, dass sich Grüns Blogbeitrag aus dem Jahr 2008 wortidentisch und ohne Zitat in der Dissertation Michel Friedmans aus dem Jahr 2010 befindet. Heidingsfelder spricht mit Grün, laut Heidingsfelder wird der Blogbeitrag in der Folge vom Netz genommen (Google Cache vergisst aufs Erste nichts!). Heidingsfelder zögert zunächst, was eine Veröffentlichung anbelangt.

* In den vergangenen sieben Tagen entdecken Heidingsfelder und ich zahlreiche weitere Textkonkordanzen zwischen Grün und Friedman (von zumindest zwei weiteren Quellen Grüns) und weitere Ungereimtheiten in der Dissertation Friedmans.

Der Fall verlangt also eine differenzierte Betrachtung. Die Schlagzeile lautet nämlich diesmal zunächst nicht: “Plagiatsvorwürfe gegenüber Michel Friedman: Hat er von seinem eigenen Doktorvater abgeschrieben?” Sie lautet schon eher: “Geheimnisvolle Textkonkordanzen zwischen Klaus-Jürgen Grün und Michel Friedman entdeckt“. – Gibt es so etwas in den Geisteswissenschaften, insbesondere in der Philosophie, dass nahezu identische Textsegmente als Versatzstücke sowohl in wissenschaftlichen Arbeiten (gedruckt und online publiziert) eines Doktorvaters als auch in einer Dissertationsschrift eines Betreuten auftauchen? Aus meiner Sicht ist dies, vorsichtig gesagt, äußerst ungewöhnlich. Jeder kann sich selbst ein Bild machen, ich habe für Martin Heidingsfelder die bisherigen Funde dokumentiert (noch kein Anspruch auf Vollständigkeit) und sie der Universität Frankfurt übermittelt. Dort scheint das allen herzlich egal zu sein, es kam bislang nicht einmal eine Eingangsbestätigung bei mir an.

Hingegen hat sich Doktorvater Klaus-Jürgen Grün bei mir gemeldet – mit einem beachtenswerten performativen Widerspruch: Er mailte mir, “die Konkordanzen” seien “aus dem bloßen Umstand zu erklären, dass ich in der Tat Texte von Herrn Friedman verwendet habe. Da aber für Blogs keine wissenschaftlichen Anforderungen gelten, gibt es für einen Plagiatsvorwurf gegen Herrn Friedman keinen Raum.” Der erste und der zweite Satz passen erkennbar nicht zusammen: Für einen Plagiatsvorwurf gegenüber Herrn Friedman gäbe es Grün zu Folge ja dann nicht deshalb “keinen Raum“, weil Grün einen der Texte 2008 auch als Blogbeitrag publiziert hat (und übrigens später auch in einem wissenschaftlichen Sammelband!), sondern weil Grün mit dieser Mail angibt, “Texte von Herrn Friedman verwendet” zu haben. Will hier ein Doktorvater mögliches wissenschaftlichen Fehlverhalten seines Ex-Dissertanten auf seine Kappe nehmen? Ist ihm klar, dass er damit selbst wissenschaftliches Fehlverhalten anzeigt? – Wie sind diese Texte tatsächlich entstanden, und warum wurden sie in der Folge so und nicht anders verwendet? Das ist es, was mich am Fall Friedman/Grün interessiert, nicht die mögliche Schlagzeile, sondern simpel und gut wissenschaftlich: die Wahrheitssuche.

Davon abgesehen teilt die Dissertation von Herrn Friedman ihr Schicksal mit zahlreichen anderen Arbeiten der vergangenen Jahre: Mitunter wurde Primärliteratur offensichtlich nicht konsultiert, sondern Bewertungen, zum Teil wörtlich, wurden in einem Fall von der FAZ abgeschrieben, in einem anderen Fall aus einer Buchrezension. Zitate wurden mitunter falschen Autoren zugeordnet, einmal befinden sich in der Arbeit seitenlange Wiedergaben eines anderen Autors mit zum Teil indirekter Rede, aber immer wieder auch ohne. Ein Wittgenstein-Zitat taucht, mit identischen Einschüben, so auch bei Grün auf, eine Referenz auf eine Habermas-Rede findet sich ebenso wörtlich, mit identischen Einschüben, bei Grün (für beides Dank an Martin Heidingsfelder). Eine Referenz auf eine frühere Arbeit Friedmans stimmt nicht: Friedman verweist auf S. 208 auf “Thesen dieses Kapitels”, die er schon früher publiziert habe, die seitenweisen wortidentischen Übernahmen beginnen aber schon mehrere Seiten zuvor. Aber hier gilt es wieder, zwischen Täuschungsvorwurf (etwa dem Vortäuschen einer Autorschaft) und schlechter oder schlampig verfahrender Wissenschaft zu unterscheiden.