Künstliche Intelligenz: ChatGPT soll Erotik-Funktion bekommen

Datum15.10.2025 02:20

Quellewww.zeit.de

TLDRChatGPT, der populärste KI-Chatbot von OpenAI, soll im Dezember eine Erotik-Funktion für Erwachsene anbieten. Nutzer müssen ihr Alter verifizieren, und die Funktion wird optional sein. Sam Altman, CEO von OpenAI, kündigte dies auf der Plattform X an. Das Unternehmen verfolgt neue Wege zur Monetarisierung seiner Technologie, während es zudem Änderungen an der Nutzerinteraktion und Sicherheitsvorkehrungen einführt. OpenAI investiert stark in Rechenzentren, um rentabel zu werden, in einem umkämpften Markt der KI-Anwendungen.

InhaltHier finden Sie Informationen zu dem Thema „Künstliche Intelligenz“. Lesen Sie jetzt „ChatGPT soll Erotik-Funktion bekommen“. Der KI-Chatbot ChatGPT soll erwachsenen Nutzern bald auch Erotik bieten können. Der Chef der Entwicklerfirma OpenAI, Sam Altman, kündigte das ohne nähere Details voraussichtlich für Dezember an. Nutzer würden dafür ihr Alter verifizieren müssen und die Funktion werde nur auf Wunsch verfügbar sein, betonte er zugleich in einem Beitrag auf der Online-Plattform X. Rivale Elon Musk bietet bei seinem Chatbot Grok schon seit einiger Zeit sexualisierte Inhalte inklusive eines leicht bekleideten animierten Avatars an. Auch bei kleineren Anbietern gibt es Erotik-Chatbots. Zu OpenAI gehört auch die Software Sora, die Video aus Text-Vorgaben erzeugen kann. ChatGPT löste vor rund drei Jahren den aktuellen KI-Hype aus und gilt als der populärste Chatbot mit inzwischen rund 800 Millionen Nutzern pro Woche. Allerdings gibt es nach wie vor Fragezeichen rund um das Geschäftsmodell bei Künstlicher Intelligenz. Entwickler wie OpenAI oder der Facebook-Konzern Meta sind dabei, hunderte Milliarden Dollar in Rechenzentren zu investieren - es ist aber nicht gesichert, dass sich das rentiert. Daher suchen die Anbieter nach Wegen, mit KI-Funktionen Geld zu verdienen. OpenAI wird Nutzern auch die Möglichkeit geben, den Charakter von ChatGPT stärker zu beeinflussen, damit die Software zum Beispiel "wie ein Freund" agieren kann. Hintergrund ist, dass einige eine frühere Version vermissen, die ihnen mehr Zustimmung gab. Ein Problem war damals, dass die Software auch potenziell schädliches oder riskantes Verhalten befürwortete. Dagegen gibt es laut OpenAI nun Vorkehrungen. © dpa-infocom, dpa:251015-930-163323/1