Künstliche Intelligenz: Studie: Laien vertrauen KI zu stark, Experten oft zu wenig

Datum10.05.2026 04:00

Quellewww.zeit.de

TLDREine Studie der Universität Hohenheim zeigt, dass Laien KI-Empfehlungen bei persönlichen und moralischen Fragen oft zu sehr vertrauen. Fachleute hingegen neigen zu übertriebener Skepsis, obwohl KI in Bereichen wie der Medizin oft überlegen ist. Forscher entwickeln Lösungsansätze: Chatbots mit sokratischer Methode schärfen das eigene Wertesystem, während im Fachbereich Transparenz durch Begründungen und Unsicherheitsangaben der KI angestrebt wird.

InhaltHier finden Sie Informationen zu dem Thema „Künstliche Intelligenz“. Lesen Sie jetzt „Studie: Laien vertrauen KI zu stark, Experten oft zu wenig“. Forscher der Stuttgarter Universität Hohenheim haben untersucht, wie Menschen Empfehlungen der Künstlichen Intelligenz bewerten – und sind dabei auf zwei Extreme gestoßen. Denn Laien neigen nach Angaben des Wirtschaftsethikers Matthias Uhl dazu, KI-Systemen bei persönlichen und moralischen Fragen übermäßig zu vertrauen. Fachleute – etwa in der Medizin – seien bei KI-gestützten Empfehlungen hingegen überaus zögerlich. Uhl zufolge ist es ein Problem, dass die KI oft unbemerkt beeinflusst: "Dabei unterschätzen sie häufig, wie stark die Antworten die eigene Meinungsbildung beeinflussen können", sagt er über Nutzer, die Chatbots für Lebensfragen nutzen. Auf der anderen Seite warnt er vor übertriebener Skepsis: "Wenn es etwa darum geht, Röntgenbilder, MRTs oder andere medizinische Bilder zu beurteilen, ist die KI inzwischen meist besser als jeder Mensch." Als Lösung für beide Probleme setzen Uhl und sein Team auf unterschiedliche Ansätze. Im privaten Bereich erproben sie Chatbots, die nach der sogenannten sokratischen Methode Rückfragen stellen, statt direkte Antworten zu geben – mit dem Ziel, das eigene Wertesystem zu schärfen. In einem Experiment mit Anhängern der US-amerikanischen Republikaner und Demokraten handelten Probanden nach solchen Gesprächen nachweislich fairer. Für den Einsatz im Fachbereich arbeitet das Team im Projekt "Ethyde" mit dem Bayerischen Forschungsinstitut für Digitale Transformation daran, KI transparenter zu machen – etwa indem sie ihre Diagnosen begründet oder angibt, wie sicher sie sich ist. Bis Ende 2027 sollen erste Prototypen auf Medizinkongressen getestet werden. © dpa-infocom, dpa:260510-930-58966/1