Strenge Warnung in Deutschland

Bundesnetzagentur in Deutschland warnt vor KI-„Lügen“ und Vertrauensverlust

Der Präsident der Bundesnetzagentur, Klaus Müller, hat eindringlich vor einem unkritischen Umgang mit Falschaussagen von Künstlicher Intelligenz gewarnt. Er hob hervor, dass die Qualität der Sprachmodelle wie ChatGPT oder Gemini erhebliche „Gefahren und Herausforderungen“ berge, die bei sensiblen Themen zu „gravierenden Fehlern“ führen könnten.
Bundesnetzagentur in Deutschland warnt vor KI-„Lügen“ und Vertrauensverlust
Bundesnetzagentur in Deutschland warnt vor KI-„Lügen“ und Vertrauensverlust
Bundesnetzagentur (Archiv), via dts Nachrichtenagentur

Folge uns auf:

Die Bundesnetzagentur hat eine deutliche Warnung bezüglich der sogenannten „Lügen“ von Künstlicher Intelligenz (KI) ausgesprochen. Klaus Müller, Präsident der Behörde, betonte gegenüber der „Neuen Osnabrücker Zeitung“, dass vor allem die Qualität aktueller Sprachmodelle wie ChatGPT oder Gemini „Gefahren und Herausforderungen“ mit sich bringe, die nicht unterschätzt werden dürften. Während KI bei exakten naturwissenschaftlichen oder mathematischen Aufgaben, bei denen es um klare „richtig oder falsch“-Aussagen geht, relativ zuverlässig sei, ändere sich dies drastisch bei kontextabhängigen Themen.

Müller führte aus, dass eine KI, die in einem gesellschaftspolitischen oder historischen Kontext „halluziniert“, im Grunde lügt. Diese Gefahr sei , denn „wenn Personen, Institutionen, unkritisch mit dieser Technologie umgehen, kann das Vertrauen beschädigt werden, und es können gravierende Fehler gemacht werden.“ Dies sei ein Thema, das ihn sehr bewege, so Müller. Die Bundesnetzagentur ist in Deutschland für die Implementierung und Durchsetzung der europäischen KI-Verordnung zuständig, was ihrer Warnung besonderes Gewicht verleiht.

Sorgen, dass sich eine fortschrittliche KI selbstständig machen könnte, wie in -Fiction-Szenarien oft dargestellt, wies Müller jedoch entschieden zurück. „Dass demnächst ein ‚Terminator‘ aus den Laboren von ChatGPT oder Gemini entsteigt und uns zu seinen Knechten macht? Nein, diese Fantasie teile ich nicht“, stellte er klar. Seine Bedenken konzentrieren sich demnach primär auf die aktuellen Herausforderungen im Umgang mit faktisch unzuverlässigen KI-Ergebnissen, die das Vertrauen in Informationen untergraben könnten.

(Mit Material der dts Nachrichtenagentur erstellt)

Anzeige

Das Könnte Sie auch interessieren

Mehr von InsideBW.de

Das könnte dich auch Interessieren – mehr aus dem Netz

Anzeige

Neueste Artikel