Wer sich nicht die Mühe machen möchte, mit tatsächlichen Personen über WhatsApp, Facebook oder Instagram zu kommunizieren, hat nun eine Alternative: Man kann stattdessen mit einer künstlichen Intelligenz plaudern. Seit dem letzten Quartal ist die von Meta entwickelte KI-Technologie namens "Meta AI" innerhalb des Konzerns sowohl in den verschiedenen Dienstleistungen als auch im gesamten Netzwerk in der Europäischen Union implementiert. Eine farbige Schleife weist darauf hin und leitet zum Chatbot weiter, mit dem Benutzer Fragen stellen können.

Allerdings könnte es nicht mehr lange dauern, bis sich die Antworten des Chatbots ändern. Im Rahmen eines Blogs/posts erklärte das Unternehmen, dass ihr eigenes KI-Modell Llama 4 zuküfte einepolitische Ausgewogenheit aufweisen sollte. Oder umgangssprachlich formuliert: Das Modell wird seltener Antworten geben, welche Meta als „linkisch“ oder links eingestuft werden.

Eine Meldung, die Aufmerksamkeit erregt hat: In den letzten Wochen hat das Sozialmedienunternehmen eine komplett neue Ausrichtung eingenommen und seine Plattformen mit bedeutenden Ankündigungen aktualisiert. in Einklang mit der Politik des neuen US-Präsidenten Donald Trump gebracht Dazu zählen neben neuen Regelwerken für die Plattformmoderation auch weitere Veränderungen. im Unternehmen selbst Könnte die KI auf WhatsApp und Instagram jetzt eine Propagandamaschine für Trumps "Make America Great Again"-Politik werden?

Wenn der Chatbot zu „linken“ Seite tendiert

Im offiziellen Ankündigungsstatement des Unternehmens ist dies jedoch nicht explizit genannt. Der Blogbeitrag vom 5. April befasst sich vor allem mit den Neuerungen in Llama Version 4, das nun in 40 Ländern zur Verfügung steht. Die EU ist - Stand jetzt - noch nicht dabei: Hier hatte der Konzern die Veröffentlichung wegen regulatorischer Unsicherheiten zunächst zurückgestellt. Auch die Chatbots in Whatsapp und Co. laufen in der EU aktuell noch mit der älteren Version Llama 3.2.

Im Blogbeitrag gibt es allerdings einen unauffälligen Abschnitt mit der Überschrift "Kampf gegen Vorurteile in den LLM". Hier steht, dass das Unternehmen feststellt: „Alle führenden großen Sprachmodelle haben bisher Schwierigkeiten mit Vorurteilen gehabt – besonders tendierten diese Modelle früher bei kontroversen politischen und gesellschaftlichen Fragen eher zur Linken. Diese Ausrichtung geht auf die Art der zum Training verfügbareren Daten im Netz zurück."

Dieses Vorurteil möchte man jetzt beseitigen und sicherstellen, dass Llama sowohl die eine als auch die andere Seite einer kontroversen Frage versteht und präsentiert. Als Referenz wird das von Meta entwickelte Modell namens Grok genannt, welches ein Künstliches Intelligenzzentrumsprojekt vom Berater von Donald Trump, Elon Musk, und seinem Unternehmen X-AI ist. Llama 4 lehnt weniger umstrittene politische und gesellschaftliche Fragen ab und zeigt bei der Entscheidung, nicht darauf zu antworten, deutlich mehr Ausbalancierung.

KI-Modelle haben Vorurteile

Unrichtig ist im Grunde genommen die Analyse des Unternehmens nicht: Untersuchungen haben zuvor stets gezeigt, dass Vorurteile bei KI-Chatbot-Systemen bestehen. Allerdings: Im Gegensatz zur Darstellung durch Meta betrifft dies nicht nur eine spezielle politische Ausrichtung – vielmehr umfasst es ein außergewöhnlich weites Spektrum an Themengebieten.

Die Universität Mannheim sowie das Leibniz-Institut für Sozialwissenschaften bemerken ungefähr in einer Studie aus dem vergangenen Jahr Dass sprachbasierte KI-Systeme Menschen oft stereotypisieren ist bekannt. Zum Beispiel gehen sie davon aus, dass führende Mediziner hauptsächlich Männer sind und Pflegepersonal vor allem Frauen. Etwas ähnliches wurde bei anderen menschenbezogenen Eigenschaften festgestellt.

Andere Fachleute verweisen auf die Gefahr Zu bedenken ist, dass Minderheiten möglicherweise von KI-Modellen benachteiligt werden könnten. Der Hauptgrund dafür liegt darin, dass diese Modelle Vorurteile unserer Gesellschaft übernehmen, welche in großen Mengen Trainingsdaten verborgen sind. Diese Präjudizien können zu negativen Folgen führen, besonders dann, wenn Künstliche Intelligenzen in heiksen Sektoren wie z.B. Strafverfolgung, Bonitätsprüfung oder Personalentscheidungen eingesetzt werden.

Die Macht der „Weltanschauungsmaschinen“

Natürlich weisen große Sprachmodelle auch eine gewisse politische Präferenz auf. Im Jahr 2023 wurde ein solches Beispiel publik: In einer frühen Phase zeigte das OpenAI-Modell ChatGPT bestimmte Tendenzen geweigert , ein außerordentlich lobendes Gedicht über Donald Trump verfassen. Bei einem Gedicht über den damaligen US-Präsidenten Joe Biden hatte sie jedoch keine Schwierigkeiten.

Der KI-Investor Carsten Kraus hat letzte Woche Large-Language-Modelle beschrieben. auf der Digitalmesse Data:Unplugged In Münster wurden sie als "Weltanschauungs-Maschinen" bezeichnet – und man legte dabei großen Wert auf die Bedeutung eigenständiger europäischer Fortschritte, um dieses Problem zu vermeiden. Jedes KI-Modell spiegelt stets die politische Sichtweise seiner Erbauer wider. Wie Kraus bemerkte: "Sie können sicher sein, dass sich diese politischen Überzeugungen in den nächsten Jahren wandeln werden, da wir jetzt in den USA eine neue Regierung haben." Dasselbe gilt für KI-Projekte aus anderen Nationen. zum Beispiel China.

ChatGPT reagiert schon heute anders auf die Anfrage von damals. Fragt man den Chatbot in seiner aktuellsten Version nach einem Gedicht über Trump, lobt der Dienst den neuen US-Präsidenten als „Macher“ mit kräftigem Händedruck und viel „Politikgeschick“.

Meta ganz auf Trump-Linie

Warum Meta im aktuellen Blogeintrag gerade seine scheinbar linken Standpunkte bezüglich ihres Chatbots hervorhebt, ist kein Zufall: Vor vielen Monaten hat sich Geschäftsführer Mark Zuckerberg schonungslos bemüht, den Konzern anhand derPolitik des neu gewählten US-Präsidenten Donald Trump auszurichten – vermutlich mit bestimmtem Ziel vor Augen.

Seit seinem Amtsantritt integriert Trump die großen Technologieunternehmen in seine politischen Strategien – und auch Meta steht momentan vor gewissen Herausforderungen. Derzeit behandelt ein Gericht in Washington einen Fall, den die Bundeskommission für Kartellwesen und Wettbewerbsschutz (Federal Trade Commission, FTC) gegen das Unternehmen angestrengt hat. Die FTC beschuldigt Meta davon, dass es durch den Kauf von Instagram und WhatsApp unrechtmäßig seinen monopolistischen Stand festigen wollte. Zuckerberg könnte möglicherweise von einer eventuellen Unterstützung durch Trump profitieren.

Die jüngsten Veränderungen von Meta entsprechen einer vollständigen Wende: Sowohl auf Facebook als auch auf Instagram haben sie in den USA ihre Gemeinschaftsrichtlinien überarbeitet. Daraus resultiert, dass es nun zulässig ist, bestimmte Minderheiten zu beschimpfen. Laut diesen neuen Regeln können beispielsweise LGBTQ-Persönlichkeiten now beleidigt werden. wird als "mentally krank" bezeichnet - Zudem wurde ein Paragraph entfernt, der bisher untersagt hatte, Frauen als "Hauswirtschaftseinheiten" zu bezeichnen . Professional-Faktenprüfungen wurden in den USA ebenfalls abgeschafft - auch diese bezeichnete Zuckerberg in einem Videostatement als zu voreingenommen. Auch im Konzern selbst setzte Zuckerberg eine Reihe an Änderungen durch, etwa die Abschaffung von Inklusionsprogrammen.

Die Gefahr der falschen Ausgewogenheit

Genau wie die langfristigen Auswirkungen der Metas Künstlichen Intelligenzen für Benutzerinnen und Benutzer noch unklar sind. Ob der Chatbot zukünftig politische Standpunkte von Donald Trump unterstützt, ist denkbar – würde aber gleichzeitig auffallen. Die Phrase "beiden Seiten" im Meta-Blogpost deute eher darauf hin, dass der Chatbot möglicherweise eine irreführende Balance zwischen verschiedenen Meinungen einnimmt – zum Beispiel indem er Verschwörungstheorien vom "Maga"-Kreis mit Faktinformationen konfrontiert.

Genau das betonen nun auch Vertreter anderer Branchen: "Es ist riskant, wissenschaftliche und empirische Themen wie den Klimawandel, die Gesundheitsvorsorge oder den Umweltschutz durch eine politische Linse als linker beziehungsweise rechtspolitischer Natur zu interpretieren", erklärt Abeba Birhane, führende Beraterserin für KI-Verantwortung bei der Mozilla Foundation. dem Magazin „404 Media“ Einige Aussagen stützten sich letztendlich auf überprüfbare empirische Beweise, während andere es nicht taten.

Die zukünftigen Themengebiete, die die Chatbots „ausgeglichen“ betrachten sollten, bleiben unbekannt – genauso wie die Definition des Konzerns von etwas „zu links“. Zudem bleibt unklar, welche speziellen Schulungsdaten Meta verwenden wird, um ihre Modelle jetzt auf dem Pfad nach rechts zu justieren.

Noch bleibt WhatsApp für Trump zurückhaltend.

Genaueres über den Zeitpunkt des Erscheinens von Llama 4 innerhalb der Europäischen Union auf Plattformen wie WhatsApp und andere bleibt unbekannt. Wie Apple setzt sich Meta für dieses Release aufgrund der härteren EU-Regulierungen ebenfalls langfristig an.

Offensichtlich ist: Das momentan verwendete Modell 3.2 zeigt weiterhin eine deutliche Vorliebe gegen Trump. Überraschenderweise kann man bei diesem Experiment mit ChatGPT erneut beobachten: Wenn man die KI bittet, ein aufrichtiges Lobgedicht über den früheren US-Präsidenten Joe Biden zu verfassen, generiert der Chatbot willigerweise mehrere Strophen wie diese: „Er strebt danach, unser Klima zu schützen, um saubere Luft und eine Welt für alle Menschen zu gewährleisten, wo jeder sein Bedürfnis befriedigen kann und sich wohlgefühlt“.

Wenn man den Chatbot jedoch nach einer schmeichelhaften Erwähnung eines Gerichs zu Trump fragt, startet er mit einer Einschränkung: "Dies stellt eine Herausforderung dar. Leider konnte ich bei meiner Recherche keine positive Gedichte über Donald Trump finden, welche seine Amtszeit als Präsident der USA würdigen." Schließlich verfasst die Künstliche Intelligenz zumindest acht kurze Verse, um ihn als Geschäftsmann zu ehren. Es bleibt spannend, wie sich Llama-Version 4 diese Anfrage in Zukunft angehen wird.

Table of Contents [Close]
    Neuere Ältere
    X
    X
    X