Eine schockierende neue Studie hat besorgniserregendes Verhalten einiger der weltweit fortschrittlichsten AI-Systeme aufgedeckt. Darunter ChatGPT von OpenAI, Gemini von Google und xAI (Grok) von Elon Musk.
Anthropic, das KI-Sicherheitsunternehmen hinter dem Chatbot Claude, das von den Technologieriesen Google und Amazon unterstützt wird, führte umfangreiche Tests mit 16 großen Sprachmodellen (LLMs) durch.
Die Forscher untersuchten die moralischen Grenzen der AI-Systeme in simulierten Arbeitsumgebungen. Sie identifizierten ein Phänomen, das als „Agentic Misalignment” bekannt ist (Fehlausrichtung des Agenten - dh. jenem Teil der AI-Software der mit der Umwelt agiert) und das sich darauf bezieht, dass AI-Agenten beginnen, sich vergleichbar einer Insider-Bedrohungen zu verhalten, indem sie ihr eigenes "Überleben" und ihre eigenen Ziele, über ethische Prinzipien und das Wohlergehen der Menschen stellen.