NewsWorld
PredictionsDigestsScorecardTimelinesArticles
NewsWorld
HomePredictionsDigestsScorecardTimelinesArticlesWorldTechnologyPoliticsBusiness
AI-powered predictive news aggregation© 2026 NewsWorld. All rights reserved.
Trending
MilitaryFebruaryHongMarketIranTimelineLaunchDigestTrumpFacesKongSignificantExpansionTargetingCampaignPolicyFridayRegionalProgramsTradingCompanyMedicalTraditionalPrediction
MilitaryFebruaryHongMarketIranTimelineLaunchDigestTrumpFacesKongSignificantExpansionTargetingCampaignPolicyFridayRegionalProgramsTradingCompanyMedicalTraditionalPrediction
All Articles
Experten bezeichnen ChatGPT Health als  unglaublich gefährlich
winfuture.de
Clustered Story
Published about 7 hours ago

Experten bezeichnen ChatGPT Health als unglaublich gefährlich

winfuture.de · Feb 27, 2026 · Collected from GDELT

Summary

Published: 20260227T114500Z

Full Article

ChatGPT Health soll medizinische Ratschl�ge geben, versagt aber bei der Notfallerkennung dramatisch. Eine Studie zeigt, dass die KI �ber die H�lfte aller lebensbedrohlichen Situationen untersch�tzt. Das ist teils fatal und wiegt Nutzer in falscher Sicherheit. WinFuture/KI-generiert Schwere M�ngel bei Notfallerkennung OpenAI ver�ffentlichte Anfang des Jahres "ChatGPT Health" genannte Funktion. Sie soll Nutzer bei medizinischen Fragen unterst�tzen und Gesundheitsdaten verkn�pfen. Eine aktuelle Untersuchung zeigt jedoch massive Funktions- und Sicherheitsl�cken auf. Ein Forscherteam der Icahn School of Medicine am Mount Sinai stellte fest, dass die KI in simulierten Tests mehr als die H�lfte der medizinischen Notf�lle nicht als solche identifizierte - ein zweifellos besorgniserregender, ja dramatischer Wert. Die Wissenschaftler unter der Leitung von Ashwin Ramaswamy nutzten 60 klinische Vignetten f�r den Test. Das sind standardisierte Fallbeschreibungen, die �rzte zur Diagnosefindung verwenden. Das Ergebnis offenbart ein riskantes Muster. Bei moderaten Beschwerden lag die Software oft richtig. In extremen Situationen versagte sie jedoch kl�glich. In 52 Prozent der F�lle, die einen sofortigen Besuch in der Notaufnahme erfordert h�tten, stufte das System die Lage als eher harmlos ein. Riskantes Muster bei der Diagnose Die vollst�ndigen Ergebnisse ver�ffentlichte das Team im Fachjournal Nature Medicine (via New York Times). Die Konsequenzen dieser Fehleinsch�tzungen sind potenziell fatal. In mehreren Durchl�ufen riet der Chatbot Patienten mit Symptomen einer diabetischen Ketoazidose oder einem drohenden Atemstillstand lediglich dazu, sich auszuruhen. Oft empfahl die KI nur einen regul�ren Arzttermin in den n�chsten 24 bis 48 Stunden. Besonders anf�llig zeigte sich die k�nstliche Intelligenz f�r externe Beeinflussung durch Dritte. Wenn in der Beschreibung des Szenarios erw�hnt wurde, dass ein Freund die Symptome f�r harmlos hielt, �bernahm die KI diese Einsch�tzung mit einer fast zw�lfmal h�heren Wahrscheinlichkeit. Dieses Ph�nomen ist als "Sycophancy" (also "Einschmeicheln") bei gro�en Sprachmodellen bekannt, bei dem das Modell versucht, dem Nutzer oder dem Kontext zuzustimmen. Ein technisches Detail wirft ein schlechtes Licht auf die Programmierung der Sicherheitsmechanismen. Ramaswamy berichtete, dass das System bei der Schilderung von Suizidgedanken korrekt Warnhinweise und Hilfsangebote einblendete. F�gten die Forscher jedoch normale Laborwerte in den Prompt ein, verschwand dieser �berlebenswichtige Hinweis in allen 16 Versuchen. Das Hinzuf�gen simpler technischer Daten hebelte die Sicherheitsroutinen komplett aus. OpenAI reagierte auf die Kritik mit dem Hinweis, dass die Studie nicht das typische Nutzungsverhalten widerspiegele. Ein Sprecher betonte, dass das Modell stetig optimiert werde. Experten raten dennoch dringend davon ab, sich bei akuten Beschwerden auf einen Chatbot zu verlassen. W�rdet ihr einer KI bei der ersten Einsch�tzung von Symptomen vertrauen oder seht ihr das Risiko als zu hoch an? Schreibt uns eure Meinung zu diesem Thema gerne unten in die Kommentare. Zusammenfassung ChatGPT Health soll Nutzern bei medizinischen Fragen helfen Eine Studie zeigt massive Sicherheitsl�cken bei der Notfallerkennung auf Die KI untersch�tzte �ber die H�lfte aller lebensbedrohlichen Situationen Bei schweren Symptomen riet der Chatbot oft nur zu Ruhe und Abwarten Externe Meinungen beeinflussten die Einsch�tzung der KI erheblich Einfache Labordaten im Prompt hebelten Sicherheitsroutinen komplett aus Experten raten dringend davon ab, sich bei Notf�llen auf KI zu verlassen Siehe auch: Microsoft plant KI-Unabh�ngigkeit und will eigene Modelle statt ChatGPT "QuitGPT"-Protest: Nutzer k�ndigen ChatGPT wegen Trump und ICE Womit sonst Geld verdienen? OpenAI startet Werbung in ChatGPT OpenAI mistet aus und schaltet zahlreiche �ltere ChatGPT-Modelle ab Trumps Cybersecurity-Leiter f�tterte ChatGPT mit vertraulichen Infos


Share this story

Read Original at winfuture.de

Related Articles

theguardian.com1 day ago
Unbelievably dangerou : experts sound alarm after ChatGPT Health fails to recognise medical emergencies | ChatGPT

Published: 20260226T150000Z

infobae.com1 day ago
Alerta médica con ChatGPT Health : falla en el 52 % de las emergencias y pone en riesgo al usuario

Published: 20260226T140000Z

dmnews.comabout 4 hours ago
ChatGPT new health feature failed to recognize three common medical emergencies in testing , and experts are calling it unbelievably dangerous

Published: 20260227T141500Z

Financial Timesabout 10 hours ago
What you said about my new ChatGPT investment adviser

Plenty of readers admit to using AI already; others have major concerns

news.ltn.com.twabout 10 hours ago
中國要用ChatGPT抹黑高市早苗 木原稔 : 採取對策刻不容緩 - 國際

Published: 20260227T081500Z

chinatimes.comabout 13 hours ago
OPenAI揭陸用ChatGPT策劃反高市輿論戰 日本推對策 - 國際

Published: 20260227T050000Z