Die (Un)gerechten : ein kritischer Beitrag zu ethischen Risiken von Large Language Models Sammelbandbeitrag uri icon

 

Abstract

  • Large Language Models (LLMs) wie GPT-3.5-Turbo und GPT-4, bekannt als ChatGPT, werden aufgrund ihrer Fähigkeit, menschenähnliche Texte zu generieren, und ihrer vielfältigen Anwendungsmöglichkeiten immer beliebter. Mit der zunehmenden Nutzung dieser Modelle im Alltags- und Berufsleben werden jedoch auch ethische Bedenken laut. Die Tendenz, diskriminierende und toxische Inhalte sowie Fehlinformationen zu erzeugen, sind nur einige davon. Das wachsende Bewusstsein für die Gefahren von LLMs und künstlicher Intelligenz (KI) im Allgemeinen hat dazu geführt, dass die EU im Mai 2024 mit der Verordnung über Künstliche Intelligenz (KI-Verordnung, engl. AI Act) das weltweit erste Gesetz zur umfassenden Regulation von KI verabschiedet hat. Es ist jedoch fraglich, ob die KI-Verordnung alle von LLMs ausgehenden Risiken ausreichend abdeckt. Neben den offiziellen Regelungen ist es von entscheidender Bedeutung, was Entwicklungsteams und Anwendende von LLMs aktiv tun können, um die bestehenden Risiken so weit wie möglich zu vermeiden. Vor diesem Hintergrund gibt dieser Artikel einen Überblick über die von LLMs ausgehenden Risiken und diskutiert, inwieweit diese durch die KI-Verordnung berücksichtigt werden und ob aktuelle Minderungsstrategien diese wirksam reduzieren. Das Ziel dieses Artikels ist es, die Aufmerksamkeit darauf zu lenken, dass ernsthafte Risiken, die von LLMs ausgehen, nicht ignoriert werden können.

Veröffentlichungszeitpunkt

  • 2025

Erscheinungsort

  • Hochschule Mittweida

Band

  • 3

Startseite

  • 76

letzte Seite

  • 86

URN

  • urn:nbn:de:bsz:mit1-opus4-159088

International Standard Serial Number (ISSN )

  • 2940-0929