Wenngleich viele Antworten, die künstliche Intelligenz-Chatbots zu Krebs geben, richtig sind, sind die Informationen dennoch oft vage und falsch interpretierbar.
Eine Studie im Journal of The National Cancer Institute Cancer Spectrum untersuchte aktuelle Chatbots und künstliche Intelligenz (KI), um die Seriosität beliebter Ressourcen für zu Krebs festzustellen. Dabei fanden die Forscher heraus, dass beispielsweise ChatGPT genaue Informationen liefern, wenn man die künstliche Intelligenz nach verbreiteten Mythen zu Krebs sowie Missverständnissen gefragt werden.
Als künstliche Intelligenz ist ChatGPT darauf trainiert, eine Vielzahl von Themen zu verstehen und Wissen zu vielen verschiedenen Bereichen zu sammeln, wie auch zu Thema Krebs und Onkologie. Das sehr umfassende und komplexe Thema umfasst allerdings viele verschiedene Aspekte. Wie beispielsweise die Ursachen, die Behandlungsmöglichkeiten, die Vorbeugung, die Diagnose, die Forschung sowie viele weitere Faktoren.
ChatGPT verfügt über umfangreiche Datenbanken und Wissensquellen, um Fragen zu Krebs zu beantworten sowie Informationen zu bestimmten Arten von Krebs, Risikofaktoren, Symptomen, Diagnoseverfahren und Behandlungsmöglichkeiten zu liefern. Aber natürlich ist ChatGPT nicht in der Lage, eine medizinische Diagnose zu stellen oder eine individuelle Behandlung zu empfehlen.
Künstliche Intelligenz und Informationen zu Krebs
In der ersten Studie dieser Art bewertete Dr. Skyler Johnson – Arzt und Wissenschaftler am Huntsman Cancer Institute und Assistenzprofessor in der Abteilung für Radioonkologie an der University of Utah (the U) – die Zuverlässigkeit und Genauigkeit, die künstliche Intelligenz wie ChatGPT zu Informationen zu Krebs liefern.
Dazu hat man deren Antworten zu verbreiteten Mythen und Missverständnissen untersucht und mit den Antworten des National Cancer Institute (NCI) verglichen.
Unter dem Strich fanden die Forscher heraus, dass 97 % der Antworten richtig waren. Dieses Ergebnis ist jedoch mit einigen wichtigen Vorbehalten verbunden. Den einige der Informationen von der ChatGPT sind vage und könnten falsch interpretiert werden.
„Die manchmal falsch interpretierten oder vagen Antworten, die eine künstliche Intelligenz gibt, könnte zu einigen schlechten Entscheidungen von Patienten mit Krebs führen. Unser Team betont deswegen große Vorsicht bei der Beratung von Patienten mit Krebs durch künstliche Intelligenz und Chatbots“, sagt Johnson.
Vorsicht vor falschen Informationen
Falsche Informationen können Krebspatienten jedenfalls schaden. In einer früheren Studie von Dr. Skyler Johnson fanden er und sein Team heraus, dass Fehlinformationen in den sozialen Medien weit verbreitet waren und Patienten mit Krebs schaden könnten.
„Es ist für Krebspatienten und deren Betreuer sehr schwer, auf genaue Informationen zuzugreifen“, sagt Johnson. „Diese Quellen müssen untersucht werden, damit wir Krebspatienten helfen können, sich mit Online-Informationen zurechtzufinden, wenn sie versuchen, Antworten auf ihre Diagnosen zu finden.“
Deswegen ist es zukünftig wichtig, die nächsten Schritte zu bewerten. Beispielsweise wie oft Patienten Chatbots verwenden, um Informationen über Krebs zu suchen. Und welche Fragen die Patienten stellen. Sowie ob künstliche Intelligenz-Chatbots genaue Antworten auf ungewöhnliche oder ungewöhnliche Fragen zu Krebs liefern.