Künstliche Intelligenz: Sicherheitsrisiko durch Halluzinieren

Weil KI-Modelle noch fehleranfällig sind, müssen für ihren Einsatz in Produktionsanlagen besondere Sicherheitsstandards eingehalten werden. Anstatt „menschenleerer Fabriken“ werden sich daher eher neue Mensch-Maschinen-Kooperationen entwickeln.

Künstlicher Intelligenz wird in der Regel eine große Zukunft im Wirtschaftsleben zugeschrieben. Doch nach der anfänglichen Euphorie zeigen sich auch die noch bestehenden Schwächen des „Maschine Learnings“ deutlicher. Vor allem das „Halluzinieren“, also Falschantworten und frei erfundene Statements, zählen noch zu den großen Schwachstellen der Künstlichen Intelligenz: Chat-GPT & Co erfinden in ihren Antworten trotz „deep learnings“ plötzlich abenteuerliche Rechenergebnisse, streuen täuschend echt wirkende Erklärungen ein oder setzen beim Schachspiel den Gegner schachmatt, indem sie mit einer Figur ziehen, die sich gar nicht am Brett befindet.

Vollständigen Artikel lesen: https://www.austriainnovativ.at/singleview/article/kuenstliche-intelligenz-sicherheitsrisiko-durch-halluzinieren Artikel von: Norbert Regitnig-Tillian