Die Bundesnetzagentur hat eine deutliche Warnung bezüglich der sogenannten „Lügen“ von Künstlicher Intelligenz (KI) ausgesprochen. Klaus Müller, Präsident der Behörde, betonte gegenüber der „Neuen Osnabrücker Zeitung“, dass vor allem die Qualität aktueller Sprachmodelle wie ChatGPT oder Gemini „Gefahren und Herausforderungen“ mit sich bringe, die nicht unterschätzt werden dürften. Während KI bei exakten naturwissenschaftlichen oder mathematischen Aufgaben, bei denen es um klare „richtig oder falsch“-Aussagen geht, relativ zuverlässig sei, ändere sich dies drastisch bei kontextabhängigen Themen.
Müller führte aus, dass eine KI, die in einem gesellschaftspolitischen oder historischen Kontext „halluziniert“, im Grunde lügt. Diese Gefahr sei real, denn „wenn Personen, Institutionen, Medien unkritisch mit dieser Technologie umgehen, kann das Vertrauen beschädigt werden, und es können gravierende Fehler gemacht werden.“ Dies sei ein Thema, das ihn sehr bewege, so Müller. Die Bundesnetzagentur ist in Deutschland für die Implementierung und Durchsetzung der europäischen KI-Verordnung zuständig, was ihrer Warnung besonderes Gewicht verleiht.
Sorgen, dass sich eine fortschrittliche KI selbstständig machen könnte, wie in Science-Fiction-Szenarien oft dargestellt, wies Müller jedoch entschieden zurück. „Dass demnächst ein ‚Terminator‘ aus den Laboren von ChatGPT oder Gemini entsteigt und uns zu seinen Knechten macht? Nein, diese Fantasie teile ich nicht“, stellte er klar. Seine Bedenken konzentrieren sich demnach primär auf die aktuellen Herausforderungen im Umgang mit faktisch unzuverlässigen KI-Ergebnissen, die das Vertrauen in Informationen untergraben könnten.
(Mit Material der dts Nachrichtenagentur erstellt)

