Kultur

“Künstliche Intelligenz führt zu einem Kulturbruch”

Vincent Müller, KI-Ethiker und Philosoph, mahnt eine gesellschaftliche Debatte an. Kreative bangen um ihre Existenz. Doch wer soll den Einsatz Künstlicher Intelligenz regeln?

Ein neuer Roman im Stil von Ernest Hemingway? Gefakte Fotos von Donald Trump bei seiner Festnahme? Oder ein frisches Richter-Gemälde? Alles kein Problem! Denn sie sind echte Könner: KI-Systeme wie Chat GPT, Stable Diffusion oder Aiva zaubern Texte, kreieren Wunschbilder oder komponieren Musik – und das alles in Minutenschnelle und verblüffend perfekt. Die Welt staunt.  

Und sie sorgt sich: “Mit KI lassen sich kreative Leistungen, die bisher nur von hochqualifizierten Fachkräften erbracht werden können, als Massenware herstellen”, warnt etwa Robert Exner, Gründer der Textagentur “Fundwort” in Hannover. “KI-Systeme untergraben so den Wert human-kreativen Denkens und Arbeitens!” Exner sieht seine Existenz bedroht – und will sich wehren. 

Ein neuer Roman im Stil von Ernest Hemingway? Gefakte Fotos von Donald Trump bei seiner Festnahme? Oder ein frisches Richter-Gemälde? Alles kein Problem! Denn sie sind echte Könner: KI-Systeme wie Chat GPT, Stable Diffusion oder Aiva zaubern Texte, kreieren Wunschbilder oder komponieren Musik – und das alles in Minutenschnelle und verblüffend perfekt. Die Welt staunt.  

“KI aber fair” – unter diesem Leitwort haben 15 Organisationen der deutschen Kreativbranche ein Positionspapier zum Thema Künstliche Intelligenz (KI) veröffentlicht. Darin fordern die Verbände aus den Bereichen Text, Lektorat, Journalismus, Grafik, Illustration, Fotografie und Kunst den Schutz ihrer Werke vor unbefugter Nutzung. Das Urheberrecht müsse dringend gestärkt werden, heißt es in dem von Exner mitinitiierten Papier, damit Kreative weiter die Früchte ihrer Arbeit ernten könnten.  

Die KI braucht Trainingsmaterial

Tatsächlich können algorithmenbasierte KI-Systeme ohne geeignetes Trainingsmaterial keine Texte, Bilder oder Musik produzieren. “Um lernende Systeme mit den notwendigen Daten zu versorgen, nutzen Entwickler unsere Werke ungefragt, ohne Einverständnis und ohne Vergütung”, so Exner im DW-Gespräch. “Diese Selbstbedienungsmentalität zu unseren Lasten ist nicht akzeptabel!”  

Das sieht auch der Philosoph Vincent Müller so, im Prinzip jedenfalls. Müller forscht an der Universität Erlangen-Nürnberg in der noch jungen Disziplin “Philosophie und Ethik von Künstlicher Intelligenz”. “Natürlich sind das Daten, für die ein Copyright gilt”, sagt Müller. Zwar würden KI-Systeme die Daten nicht einfach reproduzieren. Vielmehr lernten sie daraus etwas, was sie dann bei der nächsten Produktion zum Einsatz bringen könnten. Doch wer hat dann auf das Neue das Copyright? “Wenn man aus Dingen, die man umsonst bekommen hat, etwas Neues macht, das einen wirtschaftlichen Wert hat”, so Müller, “dann ist das ein gesellschaftliches Problem!”

Das größte Problem ist wohl das Fehlen von Regeln. Solche hat kürzlich der Deutsche Kulturrat angemahnt, der Dachverband der deutschen Kulturverbände. Jetzt fordert auch die Kreativwirtschaft: Schutz von geistigem Eigentum im Digitalen, wirksame Gesetze zum Urheberrechts- und Datenschutz. “Wir erwarten von der Politik”, sagt der Hannoveraner Exner, “dass sie sich für die rund 1,8 Millionen Erwerbstätigen der deutschen Kultur- und Kreativwirtschaft einsetzt.” 

Wenn auch nicht für alle sichtbar, so ist Künstliche Intelligenz doch längst in unserem Alltag angekommen. Verlage überprüfen Manuskripte mit KI auf ihr Bestseller-Potenzial. Sportredaktionen verwenden KI-Schreibprogramme. KI übersetzt Sprachen oder Sprache in Text. Versicherungen berechnen Schadensrisiken mit KI, Internetseiten servieren ihren Besuchern dank KI die passende Werbung – um nur ein paar Beispiele zu nennen. “Entscheidend ist, wem die KI nützt”, sagt KI-Ethiker Müller, “und ob dieser Nutzen für die Gesellschaft insgesamt eher negativ oder positiv ist.” Sprich: Ob die Rechte aller Beteiligten gewahrt bleiben.

Nach Müllers Einschätzung führt der Einsatz Künstlicher Intelligenz absehbar zu einem Kulturbruch. “Der Kulturbruch wird sein, dass immer mehr Entscheidungen von automatisierten Systemen gefällt werden.” Beim automatisierten Versand eines Strafzettels sei das vielleicht unproblematisch. “Doch es wird immer mehr solcher Entscheidungen geben. Und wir werden uns darüber Gedanken machen müssen, welche Entscheidungen wir maschinellen Systemen überlassen und wo wir maschinelle Systeme als Hilfssysteme einsetzen wollen.”

Wie problematisch automatisiert getroffene Entscheidungen sein können, hat zuletzt ein Fall von Datendiskriminierung in den Niederlanden gezeigt, die sogenannte “Kindergeldaffäre”: Mit rassistischen Kriterien gefütterte Algorithmen hatten tausende Familien in finanzielle Bedrängnis gestürzt. Die Lehre, so Müller: “Wir brauchen eine gesellschaftlichen Debatte darüber, was wir machen wollen und was nicht.” 

Ohne Gesetze wird es kaum gehen, sind sich praktisch alle einig. Das sieht auch Vincent Müller so. Er verweist auf einen Vorstoß der EU-Kommission zur Regulierung von automatisierten Entscheidungssystemen. Der Brüsseler Vorschlag enthält eine Liste “hochriskanter” Anwendungen, die dann genehmigungspflichtig würden. Der Echtzeit-Einsatz biometrischer Systeme zur Identifizierung von Menschen im öffentlichen Raum etwa soll auf wenige Ausnahmen beschränkt werden, etwa zur Terrorismusbekämpfung. “Social-Credit-Systeme”, wie bereits in China getestet, um Wohlverhalten zu erzwingen, will man gleich ganz verbieten.

Aber ob das allein mehr Vertrauen in die Künstlichen Intelligenzen schafft, deren Vormarsch immer mehr Menschen besorgt? “KI verändert das psychologische Verhältnis von Mensch und Maschine”, sagt Philosoph und KI-Forscher Müller. “Normalerweise halten wir die Maschine für einen Gegenstand von begrenzter Autonomie, die am Ende doch vom Menschen kontrolliert wird.” Das ändere sich, wenn man die Maschine mit größerer Autonomie ausstatte. “Denn dann verändern sich auch die Möglichkeiten, einzugreifen.”  

Zur Angst vor Kontrollverlust gesellt sich nach Müllers Beobachtung noch etwas Wesentliches: Die KI-gesteuerte Maschine erscheint Vielen als undurchschaubare Blackbox. Natürlich sei das auch bei vielen anderen Technologien der Fall – kaum jemand wisse heute zum Beispiel, warum ein Auto fährt. “Aber wenn ein Computer entscheidet, dass Sie keinen Kredit bekommen, dann ist das zunächst mal völlig undurchschaubar.” 

Die Sorge vor den Risiken Künstlicher Intelligenz treibt auch Entwickler und Investoren um. In einem dramatischen Appell haben namhafte Experten der KI- und Techbranche, unter ihnen Tesla-Chef Elon Musk, unlängst eine sechsmonatige Pause bei der KI-Entwicklung gefordert. Die Zeit müsse genutzt werden, um ein Regelwerk für diese recht neue Technologie zu schaffen, hieß es in einem offenen Brief der gemeinnützigen Organisation “Future of Life”.

“Leistungsstarke KI-Systeme sollten erst dann entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sind.” Neben Musk unterzeichneten mehr als 1000 Personen das Manifest, darunter Emad Mostaque, Chef der KI-Firma Stability AI, Apple-Gründer Steve Wozniak und mehrere Entwickler von Googles KI-Tochter DeepMind.  

Allerdings seien diese Technologien inzwischen so weit fortgeschritten, dass selbst die Entwickler ihre Programme nicht mehr vollständig verstehen beziehungsweise wirksam kontrollieren könnten, heißt es in dem Aufruf. Dadurch könnten Informationskanäle mit Propaganda und Unwahrheiten geflutet und selbst erfüllende Jobs wegrationalisiert werden. Aus diesem Grund sollten alle Entwickler, die an Künstlichen Intelligenzen der nächsten Generation arbeiten, ihre Arbeit öffentlich nachprüfbar einstellen. Geschehe dies nicht umgehend, müssten die Staaten ein Moratorium verhängen, so die Forderung. 

Im Ruf nach Regeln treffen sich die KI-Experten und Deutschlands Kreativschaffende. Letztere fordern Schutz und Entgelt, weil sie sich vor digitaler Ausbeutung fürchten. Ob diese überhaupt noch zu stoppen ist, muss sich zeigen. Bis dahin geben Chat GPT und Co. noch reichlich Gelegenheit zum Staunen. 

Robert Exner, Inhaber der Agentur Fundwort
Ein weibliches Robotergesicht des US-Unternehmens Open AI vor einem Bild aus Computersprache
KI-Ethiker- und Foscher Prof. Vincent Müller, Uni Erlangen

Ein neuer Roman im Stil von Ernest Hemingway? Gefakte Fotos von Donald Trump bei seiner Festnahme? Oder ein frisches Richter-Gemälde? Alles kein Problem! Denn sie sind echte Könner: KI-Systeme wie Chat GPT, Stable Diffusion oder Aiva zaubern Texte, kreieren Wunschbilder oder komponieren Musik – und das alles in Minutenschnelle und verblüffend perfekt. Die Welt staunt.  

Und sie sorgt sich: “Mit KI lassen sich kreative Leistungen, die bisher nur von hochqualifizierten Fachkräften erbracht werden können, als Massenware herstellen”, warnt etwa Robert Exner, Gründer der Textagentur “Fundwort” in Hannover. “KI-Systeme untergraben so den Wert human-kreativen Denkens und Arbeitens!” Exner sieht seine Existenz bedroht – und will sich wehren. 

Die KI braucht Trainingsmaterial

“KI aber fair” – unter diesem Leitwort haben 15 Organisationen der deutschen Kreativbranche ein Positionspapier zum Thema Künstliche Intelligenz (KI) veröffentlicht. Darin fordern die Verbände aus den Bereichen Text, Lektorat, Journalismus, Grafik, Illustration, Fotografie und Kunst den Schutz ihrer Werke vor unbefugter Nutzung. Das Urheberrecht müsse dringend gestärkt werden, heißt es in dem von Exner mitinitiierten Papier, damit Kreative weiter die Früchte ihrer Arbeit ernten könnten.  

Tatsächlich können algorithmenbasierte KI-Systeme ohne geeignetes Trainingsmaterial keine Texte, Bilder oder Musik produzieren. “Um lernende Systeme mit den notwendigen Daten zu versorgen, nutzen Entwickler unsere Werke ungefragt, ohne Einverständnis und ohne Vergütung”, so Exner im DW-Gespräch. “Diese Selbstbedienungsmentalität zu unseren Lasten ist nicht akzeptabel!”  

Das sieht auch der Philosoph Vincent Müller so, im Prinzip jedenfalls. Müller forscht an der Universität Erlangen-Nürnberg in der noch jungen Disziplin “Philosophie und Ethik von Künstlicher Intelligenz”. “Natürlich sind das Daten, für die ein Copyright gilt”, sagt Müller. Zwar würden KI-Systeme die Daten nicht einfach reproduzieren. Vielmehr lernten sie daraus etwas, was sie dann bei der nächsten Produktion zum Einsatz bringen könnten. Doch wer hat dann auf das Neue das Copyright? “Wenn man aus Dingen, die man umsonst bekommen hat, etwas Neues macht, das einen wirtschaftlichen Wert hat”, so Müller, “dann ist das ein gesellschaftliches Problem!”

Das größte Problem ist wohl das Fehlen von Regeln. Solche hat kürzlich der Deutsche Kulturrat angemahnt, der Dachverband der deutschen Kulturverbände. Jetzt fordert auch die Kreativwirtschaft: Schutz von geistigem Eigentum im Digitalen, wirksame Gesetze zum Urheberrechts- und Datenschutz. “Wir erwarten von der Politik”, sagt der Hannoveraner Exner, “dass sie sich für die rund 1,8 Millionen Erwerbstätigen der deutschen Kultur- und Kreativwirtschaft einsetzt.” 

“Ein gesellschaftliches Problem”: Es fehlen Regeln für die KI

Wenn auch nicht für alle sichtbar, so ist Künstliche Intelligenz doch längst in unserem Alltag angekommen. Verlage überprüfen Manuskripte mit KI auf ihr Bestseller-Potenzial. Sportredaktionen verwenden KI-Schreibprogramme. KI übersetzt Sprachen oder Sprache in Text. Versicherungen berechnen Schadensrisiken mit KI, Internetseiten servieren ihren Besuchern dank KI die passende Werbung – um nur ein paar Beispiele zu nennen. “Entscheidend ist, wem die KI nützt”, sagt KI-Ethiker Müller, “und ob dieser Nutzen für die Gesellschaft insgesamt eher negativ oder positiv ist.” Sprich: Ob die Rechte aller Beteiligten gewahrt bleiben.

EU setzt ersten Rechtsrahmen

Nach Müllers Einschätzung führt der Einsatz Künstlicher Intelligenz absehbar zu einem Kulturbruch. “Der Kulturbruch wird sein, dass immer mehr Entscheidungen von automatisierten Systemen gefällt werden.” Beim automatisierten Versand eines Strafzettels sei das vielleicht unproblematisch. “Doch es wird immer mehr solcher Entscheidungen geben. Und wir werden uns darüber Gedanken machen müssen, welche Entscheidungen wir maschinellen Systemen überlassen und wo wir maschinelle Systeme als Hilfssysteme einsetzen wollen.”

Wie problematisch automatisiert getroffene Entscheidungen sein können, hat zuletzt ein Fall von Datendiskriminierung in den Niederlanden gezeigt, die sogenannte “Kindergeldaffäre”: Mit rassistischen Kriterien gefütterte Algorithmen hatten tausende Familien in finanzielle Bedrängnis gestürzt. Die Lehre, so Müller: “Wir brauchen eine gesellschaftlichen Debatte darüber, was wir machen wollen und was nicht.” 

Ohne Gesetze wird es kaum gehen, sind sich praktisch alle einig. Das sieht auch Vincent Müller so. Er verweist auf einen Vorstoß der EU-Kommission zur Regulierung von automatisierten Entscheidungssystemen. Der Brüsseler Vorschlag enthält eine Liste “hochriskanter” Anwendungen, die dann genehmigungspflichtig würden. Der Echtzeit-Einsatz biometrischer Systeme zur Identifizierung von Menschen im öffentlichen Raum etwa soll auf wenige Ausnahmen beschränkt werden, etwa zur Terrorismusbekämpfung. “Social-Credit-Systeme”, wie bereits in China getestet, um Wohlverhalten zu erzwingen, will man gleich ganz verbieten.

Wer versteht schon sein Auto?

Aber ob das allein mehr Vertrauen in die Künstlichen Intelligenzen schafft, deren Vormarsch immer mehr Menschen besorgt? “KI verändert das psychologische Verhältnis von Mensch und Maschine”, sagt Philosoph und KI-Forscher Müller. “Normalerweise halten wir die Maschine für einen Gegenstand von begrenzter Autonomie, die am Ende doch vom Menschen kontrolliert wird.” Das ändere sich, wenn man die Maschine mit größerer Autonomie ausstatte. “Denn dann verändern sich auch die Möglichkeiten, einzugreifen.”  

Zur Angst vor Kontrollverlust gesellt sich nach Müllers Beobachtung noch etwas Wesentliches: Die KI-gesteuerte Maschine erscheint Vielen als undurchschaubare Blackbox. Natürlich sei das auch bei vielen anderen Technologien der Fall – kaum jemand wisse heute zum Beispiel, warum ein Auto fährt. “Aber wenn ein Computer entscheidet, dass Sie keinen Kredit bekommen, dann ist das zunächst mal völlig undurchschaubar.” 

Programme werden zur Blackbox 

Die Sorge vor den Risiken Künstlicher Intelligenz treibt auch Entwickler und Investoren um. In einem dramatischen Appell haben namhafte Experten der KI- und Techbranche, unter ihnen Tesla-Chef Elon Musk, unlängst eine sechsmonatige Pause bei der KI-Entwicklung gefordert. Die Zeit müsse genutzt werden, um ein Regelwerk für diese recht neue Technologie zu schaffen, hieß es in einem offenen Brief der gemeinnützigen Organisation “Future of Life”.

“Leistungsstarke KI-Systeme sollten erst dann entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sind.” Neben Musk unterzeichneten mehr als 1000 Personen das Manifest, darunter Emad Mostaque, Chef der KI-Firma Stability AI, Apple-Gründer Steve Wozniak und mehrere Entwickler von Googles KI-Tochter DeepMind.  

Allerdings seien diese Technologien inzwischen so weit fortgeschritten, dass selbst die Entwickler ihre Programme nicht mehr vollständig verstehen beziehungsweise wirksam kontrollieren könnten, heißt es in dem Aufruf. Dadurch könnten Informationskanäle mit Propaganda und Unwahrheiten geflutet und selbst erfüllende Jobs wegrationalisiert werden. Aus diesem Grund sollten alle Entwickler, die an Künstlichen Intelligenzen der nächsten Generation arbeiten, ihre Arbeit öffentlich nachprüfbar einstellen. Geschehe dies nicht umgehend, müssten die Staaten ein Moratorium verhängen, so die Forderung. 

Im Ruf nach Regeln treffen sich die KI-Experten und Deutschlands Kreativschaffende. Letztere fordern Schutz und Entgelt, weil sie sich vor digitaler Ausbeutung fürchten. Ob diese überhaupt noch zu stoppen ist, muss sich zeigen. Bis dahin geben Chat GPT und Co. noch reichlich Gelegenheit zum Staunen. 

Nachrichten

Ähnliche Artikel

Leave a Reply

Your email address will not be published. Required fields are marked *

Schaltfläche "Zurück zum Anfang"