Das Gegenteil von Artificial Intelligence ist bekanntlich Natural Stupidity. Oft genug sind die Ergebnisse aber nur schwer zu unterscheiden. Deshalb habe ich meine Gründe, AI (auf deutsch: KI) so weit wie möglich zu umgehen. Hier sind sie:
- Googlenutzer (und leider auch die Nutzer anderer Suchmaschinen) wissen es längst: AI ist in der Lage, im Brustton der Überzeugung geniale Erkenntnisse ebenso wie halluzinierten Blödsinn von sich zu geben. Das hängt einerseits am Error Code 42 (= sitzt 42 cm vor dem Bildschirm) zu tun, da wir doofen Menschen immer noch nicht gelernt haben, uns so auszudrücken, dass Maschinen uns korrekt verstehen. Andererseits liegt es auch oft genug daran, dass die Maschine den korrekten Kontext, in dem die ihr gestellte Frage steht, nur ungenau oder ganz falsch errät. Und nicht zuletzt liegt es daran, dass das Internet, wer wüsste es nicht, mit geistigem Müll vollgeschrieben wurde ebenso wie mit aufregenden wissenschaftlichen Neuheiten, und das die Maschine beides gleich behandelt und auswertet. Einen bias zugunsten der liberal arts will man sich ja nicht vorwerfen lassen.
- Eher abschreckend finde ich auch, mit welcher Blauäugigkeit sogar intelligente Menschen akzeptieren, was ihnen AI vorwirft. Konkretes Beispiel aus meinem erst vor einem guten halben Jahr zu Ende gegangenen Berufsleben: eine Diskussion über die Unterschiede zweier in den Bewegtbild(hahaha!)-Medien gebrauchten Begriffe. Die Erfahrung hat mich gelehrt, dass derartige Begriffe nicht unbedingt absolut zu nehmen sind, sondern ihr Gebrauch sich im Lauf der Zeit an unterschiedlichen Stellen und in unterschiedlichen Kontexten unterschiedlich entwickelt hat. Das kann und muss aber eine AI nicht unbedingt wissen.
So kann es also vorkommen, dass ChatGPT zwei Begriffe in einer Art definiert, die in Umgebung A richtig, in Umgebung B aber sinnentstellend falsch ist. Wenn dann ein Projektmensch mit einem gewissen Stolz verkündet, dass ChatGPT das aber so definiert, ist der Kontakt des eigenen Kopfes mit der Tischkante nicht mehr weit. - Einen Teil meiner Tätigkeit in einer vom Urheberrecht (mit-) bestimmten Branche habe ich damit verbracht, für die Einhaltung eben dieser Urheberrechte zu
kämpfenarbeiten. Konkret: Ich musste in den späten Nuller-Jahren erschreckend vielen Kolleginnen und Kollegen erklären, dass ein Video nicht allein deshalb verbreitet (= gesendet) werden darf, weil es im Internet stehe und deshalb öffentlich verfügbar sei. Einige hielten mich damals für einen Spielverderber. Immerhin wurde u.a. mit meinem Input anschließend ein recht ausgefuchstes Rechtemanagement entwickelt.
Und nun kommt eine ganze Industrie und sagt, die Einhaltung von Urheberrechten mache den Fortschritt unmöglich – und wertet unterschiedslos alles aus, was ihren Bots in die ungewaschenen Krallen fällt. Aktuelles Beispiel: OpenAI’s Studio Ghibli meme factory is an insult to art itself.
According to Evan Brown, an intellectual property lawyer at the law firm Neal & McDevitt, products like GPT-4o’s native image generator operate in a legal gray area today. Style is not explicitly protected by copyright, according to Brown, meaning OpenAI does not appear to be breaking the law simply by generating images that look like Studio Ghibli movies.
However, Brown says it’s plausible that OpenAI achieved this likeness by training its model on millions of frames from Ghibli’s films. Even if that was the case, several courts are still deciding whether training AI models on copyrighted works falls under fair use protections.
OpenAI’s viral Studio Ghibli moment highlights AI copyright concerns
- Aus dem selben Grund (vier Jahrzehnte in den Medien) kann ich es nicht gut finden, wenn AI dafür genutzt wird, Inhalte zu erzeugen, die im Gegenzug nicht mehr von mehr oder weniger gut bezahlten Menschen erzeugt werden müssen. Diesem Problem sehen sich nicht nur Medienmenschen gegenüber, sondern Berufstätige in vielen Branchen. Das macht die Sache aber nicht besser.
- Dass Generative AI zu allem Schlechten auch noch ein Ressourcenfresser erster Sorte ist, muss ich nicht extra erwähnen, oder? Ressourcen sind ja offensichtlich kein Problem mehr – man muss ja nur danach bohren (Trump) oder sie in Russland kaufen (AfD u.a.).
- Und schließlich mag ich AI nicht, weil ich langsam ins Stadium des präsenilen Krückstockfuchtelns komme. Das kann durchaus auch ein Grund sein, doch, ja.
Wie dem auch sei: Ich finde AI unnütz oder sogar gefährlich und umgehe sie deshalb, so weit es mir möglich ist.
Garbage in, garbage out (https://en.wikipedia.org/wiki/Garbage_in,_garbage_out)
Nothing has changed since 1957
It would be interesting to study this equation in the light of newer AI developments. Is it still true that garbage in = garbage out? My impression is that garbage out > garbage in, enhanced by the hallucinating creativity of AI.
Always nice to read considered opinions from scientists who have extensively studied the topic, instead of the opinions of those who have a vested interest in promoting a hot, new field of interest.
AI Experts Say We’re on the Wrong Path to Achieving Human-Like AI: https://gizmodo.com/ai-experts-say-were-on-the-wrong-path-to-achieving-human-like-ai-2000581717
More
Most Americans don’t trust AI — or the people in charge of it: https://www.theverge.com/ai-artificial-intelligence/644853/pew-gallup-data-americans-dont-trust-ai
…but a (slim) majority of them trusted a convicted felon enough to elect him President. Twice. The same man who, supposedly, has his policies written by ChatGPT: https://www.theverge.com/news/642620/trump-tariffs-formula-ai-chatgpt-gemini-claude-grok (same source as your link)