GlobalSign Blog

Erforschung schädlicher Vorurteile durch LLMs und generative KI

Erforschung schädlicher Vorurteile durch LLMs und generative KI

Diskussionen über generative KI sind in der Geschäftswelt inzwischen so weit verbreitet, dass ihr Einfluss nicht mehr nur eine Vermutung, sondern Realität ist. KI-Systeme sind inzwischen so fortschrittlich und weit verbreitet, dass schätzungsweise 35% der Unternehmen weltweit sie in irgendeiner Form nutzen. Man kann sagen, dass KI für Unternehmen in fast allen Branchen einen äußerst einflussreichen Wandel in Bezug auf Automatisierung, Identitätsüberprüfung und Cybersicherheit darstellt.

Wenn man sich jedoch eingehend mit den Möglichkeiten und dem Potenzial der generativen KI befasst, müssen auch die zugrundeliegenden Large Language Models (LLMs) betrachtet werden, die Einfluss auf die weitere Entwicklung dieser Technologie nehmen. Vorurteile, Fehlinformationen und schädliche Stereotypen sind nur einige der Beispiele, die – oft unwissentlich – von unaufmerksamen Nutzern verbreitet werden können. Daher müssen Unternehmen durch Richtlinien und Grundsätze sicherstellen, dass diese LLM-Programme mit ethischen Datensätzen geschult werden und dass KI verantwortungsvoll eingesetzt wird. Nur dann kann sie nicht für gefährliche Inhalte verantwortlich gemacht werden, die ihrer Marke und ihrem Ruf schaden könnten.

Vorurteile und Halluzinationen, die durch KI hervorgerufen werden, können Auswirkungen haben, die über falsche Inhalte und die Schädigung des Unternehmensrufs hinausgehen. Halluzinationen und kognitive Vorurteile, die durch Trainingsdatensätze übertragen werden, können außerdem zu Sicherheitslücken führen und die Fähigkeit einer KI beeinträchtigen, Bedrohungen genau zu erkennen.

LLMs arbeiten mit Transformationsmodellen innerhalb neuronaler Netze, wodurch die Entwicklung von Narrativen, die Sprachübersetzung und die Generierung „menschenähnlicher“ Inhalte fast instinktiv erfolgen. LLMs können auch große Mengen unstrukturierter Daten aus der gesamten Infrastruktur eines Unternehmens analysieren. Das reicht von numerischen bis hin zu systematischen Daten, die Einblicke in die Cyber-Risiken eines Unternehmens bieten. Es wird argumentiert, dass LLMs eine entscheidende Rolle bei der Verbesserung der Bedrohungserkennung und der Reaktionsmaßnahmen eines Unternehmens spielen können. Man darf sich jedoch nicht von den unendlichen Möglichkeiten täuschen lassen, sondern muss sich mit der sehr komplexen Realität auseinandersetzen. 

Das Folgende gibt einen Überblick über die technischen Gründe, warum LLMs schädliche und toxische Vorurteile und Halluzinationen aufrechterhalten. Zudem werden ihre Auswirkungen auf die reale Welt und verantwortungsvolle Praktiken beschrieben, um LLMs in eine integrativere und positivere Zukunft zu lenken. 

Erforschung von Halluzinationen und Vorurteilen in LLMs  

Zunächst müssen die Überlegungen in Bezug auf LLMs und KI isoliert und voneinander unterschieden werden, da die Begriffe oft synonym verwendet werden.

  1. KI-Halluzinationen: KI-Chatbots wie – unter anderem – ChatGPT und Bard können gefälschte Inhalte generieren, indem sie in ihren Ausgaben Statistiken und überflüssige Ideen vermischen. Das Problem liegt darin, dass der Benutzer die KI anweisen kann, Inhalte bereitzustellen, die mit seiner Eingabeaufforderung übereinstimmen. Und das auch, wenn diese absichtlich oder unabsichtlich erfunden sind. Aufgrund der begrenzten Trainingsdaten kann das Tool jedoch nicht intuitiv zwischen Fakten und Fiktion unterscheiden. Werden Halluzinationen nicht überwacht und beaufsichtigt, können sie fehlerhafte, verzerrte und übertriebene Daten sowie Falschdarstellungen ausgeben. Angesichts des relativ begrenzten Verständnisses des Menschen für LLMs kann das zu einer Aufrechterhaltung von Narrativen führen, die leicht für Fakten gehalten werden können.
  2. KI-Vorurteile: LLMs können mit Trainingsdaten trainiert werden, die in sich bereits Vorurteile enthalten und sich auf zahlreiche Arten manifestieren können. Unabhängig davon, ob es sich dabei um die Verbreitung von Stereotypen, Vorurteilen oder Phobien handelt, stellt es ein erhebliches ethisches und gesellschaftliches Problem dar, wenn derartige Inhalte und Daten unbeaufsichtigt und ohne Kontrolle an die Öffentlichkeit gelangen. In sensiblen und stark regulierten Sektoren wie dem Gesundheits-, Nachrichten-, Bildungs- und Finanzwesen können es sich Unternehmen nicht leisten, Daten zu verbreiten, die Vorurteile enthalten und dadurch die politische und soziale Spaltung der Gesellschaft verstärken.

Verstehen, wie Vorurteile in der KI entstehen

KI-Vorurteile können verschiedene Ursachen haben. Hier werden einige der häufigsten beschrieben.

  • Trainingsdaten, die Vorurteile enthalten: Wenn die zum Trainieren eines KI-Modells verwendeten Daten bereits Vorurteile oder begrenzte Daten enthalten, werden diese automatisch in allem widergespiegelt und projiziert, was das Tools ausgibt. Textdaten, die beispielsweise stereotype oder voreingenommene Darstellungen bestimmter Gruppen enthalten, können dazu führen, dass Sprachmodelle voreingenommene Texte mit wenig oder ganz ohne Filterung generieren. 
  • Schlechte Datensatzkuratierung: Viele Datensätze enthalten unbeabsichtigte historische Vorurteile und es mangelt ihnen oft an der Vielfalt, Inklusion und Gleichheit, die heutzutage erwartet wird. Die Verwendung solcher Datensätze ohne sorgfältige Kuratierung und Ausgewogenheit kann zu möglicherweise schädlichen Vorurteilen und Verzerrungen führen.
  • Fehlender sozialer Kontext: KI-Systemen mangelt es an dem menschlichen sozialen Kontext, der Erfahrung und dem gesunden Menschenverstand, um schädliche Narrative oder Diskurse zu erkennen. Ein Sprachmodell kann plausible, aber trotzdem unethische Ergebnisse generieren, die ausschließlich auf dem Mustervergleich einer Eingabeaufforderung basieren. Die umfassendere und gesellschaftspolitische Bedeutung des Textes wird dabei möglicherweise nicht wirklich verstanden.
  • Mangelnde Transparenz: Die Black-Box-Natur komplexer KI-Modelle macht es schwierig, Systeme auf Vorurteile zu überprüfen. Ohne Transparenz bei der Erstellung von Ergebnissen können Vorurteile unentdeckt bleiben. Das unterstreicht die Notwendigkeit einer strengeren, stärker reglementierten und regelmäßigeren Überwachung, Überprüfung und Anpassung von KI-Systemen, die bereits in Betrieb integriert sind. 

Angesichts der Tatsache, dass der globale KI-Markt bis 2030 voraussichtlich um das Zwanzigfache wachsen und einen Wert von etwa 2 Billionen US-Dollar erreichen wird, ist es nur angemessen zu verlangen, dass diese Technologie ethisch und methodisch genutzt wird.

Implementierung ethischer KI-Prinzipien

Die Erstellung hochwertiger Datensätze (ähnlich wie es DatologyAI tut) kann auf den ersten Blick die beste und effektivste Einzellösung sein, um die ständige Generierung schädlicher KI-Texte einzudämmen. Dies ist jedoch nicht immer praktikabel, da die Validierung und Bereinigung von Daten sehr zeit- und ressourcenintensiv ist. Das langfristige Ziel sollte bestehen bleiben, doch gleichzeitig sollten Unternehmen – unabhängig vom Sektor – die richtigen Schritte unternehmen, um verantwortungsvollere, integrativere und universellere KI-Modelle zu entwickeln.

  • Ethische Grundsätze festlegen: Es müssen klare KI-Leitlinien und -Richtlinien entwickelt werden, die sich an den Grundsätzen von Inklusivität, Transparenz, Fairness, Verantwortlichkeit und Respekt für die menschliche Autonomie orientieren. 
  • Für mögliche Schäden sensibilisieren: KI-erfahrene Teams müssen in den verschiedenen Arten algorithmischer Schadens- und Minderungsansätze geschult werden, damit sie Probleme bei der autonomen Verwendung von Tools erkennen können. Menschliche Benutzer haben die Pflicht, den Einsatz und die fortgesetzte Nutzung von KI in jedem Geschäftskontext zu verwalten und zu leiten.
  • Transparenz praktizieren: Es ist eine offene Kommunikation über Datenquellen, Modellentscheidungsprozesse und Leistungsunterschiede nötig, um zwischen allen Abteilungen und externen Benutzern Vertrauen aufzubauen. Dabei sollte betont werden, dass auf Vorurteile hingewiesen werden muss, die manche Benutzer möglicherweise übersehen oder nicht erkannt haben, und dass solche Angelegenheiten intern geklärt werden müssen.
  • Menschliche Kontrolle ermöglichen: Alle Teams müssen auf dem Laufenden gehalten werden und die Modellergebnisse müssen vor dem Einsatz in der realen Welt bewertet werden, um Vorurteile erkennen zu können. Durch Feedbackschleifen für die von den Modellen betroffenen Benutzern lassen sich Probleme schneller erkennen. Dadurch kann eine Kultur der Offenheit und der Bereitstellung von Leistungen gefördert werden, die den Menschen in den Mittelpunkt stellt. 
  • Prüfung auf ungerechte Ergebnisse: Testen Sie KI-Modelle kontinuierlich auf Anzeichen ungerechter Ergebnisse zwischen den Benutzerdemografien. Validieren Sie alle KI-generierten Ergebnisse regelmäßig und bewerten Sie sorgfältig, wie gewissenhaft Benutzer die Inhalte kontrollieren und steuern.

Anleitung zum verantwortungsvollen Einsatz generativer KI

Als leistungsstarke, neue Kategorie der KI mit enormem Missbrauchspotenzial erfordern generative KI und LLMs ein hohes Maß an Management und Kontrolle. Eine hastige und reaktionäre Implementierung dieser Modelle in bestehende Geschäftsinfrastrukturen und Organisationen, ohne dass die Gültigkeit dieser Tools ordnungsgemäß überprüft wird, führt lediglich zur weiteren Ausbreitung schädlicher Vorurteile. 

Mit ethischen und methodischen Strategien, die den Menschen in den Mittelpunkt stellen, können Unternehmen bei der Aktualisierung von KI-Systemen jedoch den potenziellen Schaden und die Kritik, die ihnen von Seiten der Verbraucher, Verkäufer, Lieferanten und anderen Interessengruppen drohen, besser abmildern. Die kontinuierliche Weiterentwicklung der KI bringt für Unternehmen eine Fülle komplexer Risiken mit sich. Doch wenn von Anfang an ethische Grundsätze, Richtlinien und Sicherheitsvorkehrungen festgelegt werden, lässt sich verhindern, dass auf breiter Ebene Schäden entstehen. 

Share this Post

Aktuelle Blogs