Wikipedia steht Kopf – und der Grund ist kein Bearbeitungskrieg über ein kontroverses Thema, sondern ein kleines, unscheinbares KI-Experiment mit großen Folgen. Die Wikimedia Foundation, die Organisation hinter der Online-Enzyklopädie, kündigte diese Woche an, maschinell generierte Zusammenfassungen testweise auf Wikipedia einzusetzen. Die Reaktion? Ein Sturm der Entrüstung seitens der ehrenamtlichen Community, wie man ihn selten erlebt.
„Absolut nicht. In keiner Form.“
Geplant war ein zweiwöchiger Testlauf mit KI-basierten Kurzfassungen – produziert durch ein Sprachmodell des Anbieters Cohere (Aya) und moderiert von menschlichen Editoren. Ziel: Wikipedia-Inhalte für Menschen mit unterschiedlichen Lesefähigkeiten zugänglicher machen.
Doch anstatt Neugier oder Zustimmung erntete die Ankündigung blankes Entsetzen. Auf den Diskussionsseiten von Wikipedia brach ein Shitstorm los – öffentlich und ungeschönt.
„Was zur Hölle? Nein. Absolut nicht. In keiner Form oder Ausprägung“, schrieb ein Editor. Ein anderer fügte hinzu: „Das ruiniert unseren Ruf für Genauigkeit. Die Leute werden die KI-Texte lesen und nie bis zum echten Inhalt vordringen.“
Noch deutlicher wurde es in einem weiteren Kommentar: „Haltet KI aus Wikipedia raus. Punkt. WMF-Angestellte, die ihre Lebensläufe mit KI-Projekten aufhübschen wollen, sollten sich nach neuen Jobs umsehen.“
Ein klares Nein aus der Community
Der Ton war durchgehend scharf: Viele sahen den Test nicht nur als Qualitätsrisiko, sondern auch als Bevormundung. Der Vorwurf: Die Wikimedia Foundation ignoriere regelmäßig die Meinung der Community und ziehe ihre Pläne trotz Widerstands durch.
„Eine wirklich grauenhafte Idee“, hieß es weiter. „Da WMF-Vorschläge sowieso immer durchgeboxt werden, hoffe ich wenigstens, dass es diesmal eine Umfrage mit einer klaren Nein-Option gibt.“ Und: „Wollt ihr Wikipedia zerstören? Denn genau so fängt man damit an.“
Wikimedia reagiert – vorerst
Angesichts des massiven Gegenwinds sah sich die Stiftung gezwungen, den Versuch vorzeitig zu stoppen. In einer Stellungnahme gegenüber 404 Media erklärte ein Sprecher: „Das Experiment sollte helfen, komplexe Wikipedia-Artikel für Menschen mit unterschiedlichem Bildungsstand zugänglicher zu machen. Es war opt-in, zeitlich begrenzt und sollte auch Erkenntnisse darüber liefern, wie menschliche Moderation weiterhin im Zentrum der Inhalte bleiben kann.“
Doch genau das glauben viele nicht mehr. Für viele Freiwillige ist der Test ein Zeichen dafür, dass die Stiftung zunehmend an der Community vorbeientwickelt – und dabei bereit ist, fundamentale Prinzipien wie Neutralität, Transparenz und menschliche Kontrolle aufzugeben.