Marktplatzangebote
3 Angebote ab € 9,99 €
  • Broschiertes Buch

Die Evaluation wissenschaftlicher Leistung spielt eine wichtige Rolle, seit es Wissenschaft gibt. In diesem Band wird die Qualitätssicherung in den Wissenschaften umfassend, systematisch undkritisch untersucht. Dabei werden auch die unerwünschten Effekte in den Blick genommen, die man bei Evaluationen mittlerweile feststellen kann.

Produktbeschreibung
Die Evaluation wissenschaftlicher Leistung spielt eine wichtige Rolle, seit es Wissenschaft gibt. In diesem Band wird die Qualitätssicherung in den Wissenschaften umfassend, systematisch undkritisch untersucht. Dabei werden auch die unerwünschten Effekte in den Blick genommen, die man bei Evaluationen mittlerweile feststellen kann.
Autorenporträt
Dagmar Simon (Dr. rer. pol.) ist Leiterin der Forschungsgruppe Wissenschaftspolitik am Wissenschaftszentrum Berlin für Sozialforschung.
Rezensionen

Frankfurter Allgemeine Zeitung - Rezension
Frankfurter Allgemeine Zeitung | Besprechung von 14.02.2008

Evaluitis, ansteckend
Ein Sammelband über die Bewertung von Forschung

Die Technische Universität (TU) Berlin hat eine Seite im Internet, von der aus man zu allen möglichen Hochschulranglisten kommen kann (www.tu-berlin.de/service/ranking.htm): vom "Professional Ranking of World Universities", das von der Pariser École des Mines vorgenommen wird, bis zum "Webometrics Ranking of World Universities", bei dem gezählt wird, wie oft auf eine Universität von anderen Websites aus verwiesen wird.

Zusätzlich lässt die TU Berlin den Leser wissen, welche Plätze sie auf diesen Ranglisten einnimmt, beispielsweise Rang 34 in Paris; Rang 203 bis 304 in Schanghai; Rang 62 unter den Technischen Universitäten in London; bundesweit Rang 18 bei der Deutschen Forschungsgemeinschaft; Rang 3, 5 und 9 je nach Fach - Wirtschaftsingenieurwesen, Maschinenbau, Elektrotechnik - bei der Zeitschrift "Capital"; Platz 4, 8, und 6 bei denselben Fächern in der Zeitschrift "Wirtschaftswoche"; außerdem Platz 17 in der Beliebtheit bei ausländischen Forschern, die von der Alexander von Humboldt-Stiftung ermittelt wurde; Platz 2 im "Hochschulranking nach Gleichstellungsaspekten" bei den Habilitationen sowie die Plätze 67, 97 und 138 je nach Methode bei der Zählung des weltweiten Universitätenwebsites-Verkehrsaufkommens.

Man muss solche Zahlen nur nebeneinanderstellen, um zu begreifen, dass es ein Schwachkopf gewesen sein muss, der auf die Idee gekommen ist, wissenschaftliche Qualität - von Publikationen, Forschern oder ganzen Universitäten - lasse sich messen. In einem soeben erschienenen Sammelband über Evaluationen in der Wissenschaft bezeichnen die Soziologen Sabine Maasen (Basel) und Peter Weingart (Bielefeld) solche Listen höflicher und treffend als eine Form "imaginierter Öffentlichkeit". Denn ihre offenkundige Unbrauchbarkeit für Entscheidungen, der Methodenwirrwarr ihrer Entstehung und die oft nachgerade sinnlosen Mitteilungen, die sie machen - "Platz 2 bei der Gleichstellung im Bereich der Habilitationen" -, hindern die Universitäten nicht, solche Zahlen für bedeutsam zu halten. Es wird, mit anderen Worten, unterstellt, dass es Leute gibt, die blöd genug sind, auf Ranglisten etwas zu geben, weshalb man selbst sich um die Verbesserung des eigenen Platzes darauf kümmern müsse.

Der Schweizer Ökonom Bruno S. Frey spricht im selben Band von Evaluitis als einer sich ausbreitenden Krankheit, deren Fieber dazu führt, dass sich Universitäten und Wissenschaftler im Wettbewerb fühlen, wenn sie um Ranglistenplätze konkurrieren. Tatsächlich aber handelt es sich nur um eine Wettbewerbsfiktion, weil weder die staatliche Mittelzuweisung noch die "Produktion" an den Hochschulen irgendeine Ähnlichkeit mit dem Geschehen auf Märkten oder in Sportligen aufweist.

Doch die Fiktion ist wirksam. Frey berichtet, dass auf großen wissenschaftlichen Konferenzen unter Volkswirten kaum mehr eine Diskussion über inhaltliche Aspekte ihrer Forschung stattfinde. Gesprächsthema seien insbesondere unter jüngeren Forschern oft nur mehr die Publikationserfahrungen und Strategien des erfolgreichen "Absetzens" von Artikeln. Und Disziplinen, deren Publikationsgepflogenheiten eine bibliometrische Auswertung nicht erlauben - etwa weil es in ihnen keine stabile Reputationshierarchie der Publikationsorte gibt -, kommen unter Druck, eine solche einzuführen, nur um der angeblichen Messbarkeit willen.

Außerdem geben sich Universitäten der Illusion hin, ihre Personalauswahl gleichsam mechanisieren zu können, indem den Kennziffern der Kandidaten (Drittmittelaufkommen, Zitationsrate, gewichtete Publikationsstärke) und nicht der Lektüre ihrer Arbeiten die Qualität entnommen wird. Die Ausrede dafür lautet gewöhnlich, Spezialisierung und Umfang des Wissenschaftsbetriebs hätten so zugenommen, dass man zu Urteilen auf der Basis von Zahlen gezwungen sei. Als wäre die Aufgabe, jemandes Aufsätze zu lesen, unendlich viel schwerer als die, vieldeutige Kennziffern wie den Hirsch-Index, das Drittmittelaufkommen je Professor oder die Zahl der betreuten Dissertationen zu interpretieren.

Man solle nur messen, wovon man gerne mehr hätte, zitiert der englische Betriebswirt Michael Power in seinem Beitrag den Unternehmensberater Tom Peters. Auf die Wissenschaft angewandt, entzaubert diese Formel sofort das gegenwärtige Evaluier- und Akkreditier- und Ranking-Geschehen. Denn gibt es wirklich jemanden, der sagen würde, wir brauchten mehr Aufsätze über Fontane oder über fleischfressende Pilze, mehr Sonderforschungsbereiche, mehr Dissertationen und mehr Tagungen samt nachfolgender Sammelbände? Solange die Wissenschaft sich selbst über Zahlen zu erschließen versucht, wird sie mehr davon bekommen - und dadurch das Problem verstärken, das sie in die Zahlenwirtschaft hineingetrieben hat.

JÜRGEN KAUBE

Hildegard Matthies, Dagmar Simon (Hrsg.):

Wissenschaft unter Beobachtung. Effekte und Defekte von Evaluationen, Leviathan-Sonderheft 24, Verlag für Sozialwissenschaften,

Wiesbaden 2008.

Alle Rechte vorbehalten. © F.A.Z. GmbH, Frankfurt am Main
…mehr
"Erhellend ist beispielsweise der historische Aufsatz, der bei der Inquisition als frühe Form von 'systematischer Auseinandersetzung und Bewertung von Wissen' [...] beginnt. Aus politikwissenschaftlicher Sicht ist vor allem der Artikel von Salais zu Evaluation und Politik spannend, der die Verwendung von Indikatoren als Governance-Werkzeuge problematisiert und den positivistischen Glauben, der sich in einem technokratischen Politikverständnis ausdrückt, kritisch reflektiert. Insgesamt vermittelt der Sammelband einen fundierten Überblick über die wesentlichen Aspekte der Evaluationsdiskussion." -- www.zpol.de (Zeitschrift für Politikwissenschaft), 24.06.2008