| Magazin

Alle reden von ChatGPT: Welchen Nutzen hat KI für Praxen?

Künstliche Intelligenz (KI) erinnert an unheimliches Geschehen in Krimis mit selbstfahrenden Autos oder verselbständigten Robotern. Den Begriff der KI prägte aber schon vor 70 Jahren der amerikanische Informatiker John McCarthy. Seit vielen Jahrzehnten wird zur Künstlichen Intelligenz geforscht. ChatGPT ist seit Kurzem in aller Munde. Was Sie darüber wissen sollten.

Noch keine Definition für Künstliche Intelligenz

Alexa und Siri, Navigationssysteme, Bilderkennung. Künstliche Intelligenz – auch als Artificial Intelligence (AI) bezeichnet – fasst als Oberbegriff verschiedene Technologien zusammen, die menschliche Fähigkeiten im Sehen, Hören, Analysieren, Entscheiden und Handeln ergänzen und stärken. Verbindlich definiert ist KI noch nicht, u.a. deshalb, weil es auch noch keine allgemeingültige Definition für „Intelligenz“ gibt. Sicher ist: Computer sollen aus Daten und aus Erfahrung lernen, Entscheidungen treffen und Probleme lösen.
 

Was ChatGPT bedeutet

ChatGPT ist die Abkürzung für „Chat Generative Pre-Trained Transformer“. Es handelt sich um ein Chatbot oder Bot – ein textbasiertes Dialogsystem, mit dem man sich mit Hilfe einer Maschine unterhalten kann. Das amerikanische Unternehmen OpenAI hat das Modell mit riesigen Textmengen trainiert. ChatGPT kann komplexe Zusammenhänge verständlich erklären. Es kann Texte, Nachrichten, sogar Gedichte verfassen. Zudem kann es Folgefragen beantworten, Fehler zugeben, Annahmen hinterfragen, aber auch unangemessene Anfragen ablehnen. Allerdings: Der Bot ist zwar höflich, aber nicht empathisch, und er weiß auch nicht, was wahr und was falsch ist.
 

Digitale Technologien leisten Großartiges, bergen aber auch Risiken

Im Gesundheitswesen wird Künstliche Intelligenz in vielen Bereichen bereits unterstützend genutzt, beispielsweise in der Krebserkennung. Digital Health-Experte Professor David Matusiewitz warnt jedoch davor, ChatGPT als Wunderwaffe „in der Medizin, wo zuverlässige Genauigkeit von größter Bedeutung ist“ zu sehen. Für bestimmte Aufgaben sei ChatGPT nicht konzipiert und könne Probleme verschlimmern. Nur in 2 % bediene sich die Anwendung aus wissenschaftlichen Quellen, der Rest sei ungeprüft.

Der Deutsche Ethikrat veröffentlichte im März 2023 eine 287-seitige Stellungnahme zum Thema „Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz“. In der Pressemitteilung unter der Überschrift „Künstliche Intelligenz darf menschliche Entfaltung nicht vermindern“ heißt es: „Für den Medizinbereich richten sich Empfehlungen unter anderem auf die Qualitätssicherung bei der Entwicklung und Nutzung von KI-Produkten, auf die Vermeidung ärztlicher Kompetenzverluste und auf das Ziel, die Privatsphäre von Patientinnen und Patienten mit intensiver Datennutzung in der medizinischen Forschung in Einklang zu bringen. Dabei gilt es, das Vertrauensverhältnis zwischen allen beteiligten Personen zu schützen und die vollständige Ersetzung medizinischer Fachkräfte zu vermeiden.“
 

Und was sagt ChatGPT selbst zum Thema?

Der Beitrag, den Sie gerade lesen, wurde von einem Menschen verfasst. Wir haben spaßeshalber ChatGPT eine Aufgabe gegeben und gefragt:

„Bitte erkläre, ob und wie Medizinische Fachangestellte und ambulante Arztpraxen ChatGPT nutzen können und welche Gefahren bestehen!“

Und das ist die Antwort von ChatGPT:

Medizinische Fachangestellte und ambulante Arztpraxen können ChatGPT nutzen, um verschiedene Aufgaben im Zusammenhang mit der Patientenversorgung zu erleichtern. Einige mögliche Anwendungsbereiche könnten sein:

  1. Terminvereinbarungen: ChatGPT könnte so programmiert werden, dass er automatisch Termine mit Patienten vereinbart und dabei Verfügbarkeiten der Praxis berücksichtigt.
  2. Erinnerungen an Termine und Medikamente: ChatGPT könnte Patienten an bevorstehende Termine erinnern oder daran erinnern, ihre Medikamente einzunehmen.
  3. Beantwortung von häufig gestellten Fragen: ChatGPT könnte häufig gestellte Fragen von Patienten beantworten, wie z.B. Öffnungszeiten, Adresse der Praxis oder Fragen zu bestimmten Behandlungen.
  4. Triage: ChatGPT könnte Patientenfragen entgegennehmen und basierend auf den Antworten eine Einschätzung vornehmen, ob es sich um einen Notfall handelt, der sofortige medizinische Hilfe erfordert, oder ob ein regulärer Termin ausreicht.
     

Allerdings gibt es auch einige potenzielle Gefahren, die bei der Verwendung von ChatGPT in einer medizinischen Umgebung berücksichtigt werden müssen. Einige davon sind:

  1. Datenschutz: ChatGPT muss so programmiert werden, dass er sicherstellt, dass Patientendaten vertraulich behandelt werden und nicht an Dritte weitergegeben werden.
  2. Fehldiagnosen: ChatGPT kann bei der Triage oder Beantwortung von Fragen möglicherweise nicht immer die richtige Einschätzung vornehmen und damit eine Fehldiagnose stellen.
  3. Verantwortlichkeit: ChatGPT darf nicht als Ersatz für die medizinische Beurteilung durch einen Arzt oder eine Fachkraft eingesetzt werden und sollte nur als Ergänzung zu einer persönlichen Untersuchung genutzt werden.
  4. Haftung: Die Verwendung von ChatGPT in einer medizinischen Umgebung kann möglicherweise rechtliche Risiken mit sich bringen, wenn es zu einem Fehler oder Schaden kommt, der auf die Verwendung von ChatGPT zurückzuführen ist.
     

Insgesamt kann die Verwendung von ChatGPT in einer medizinischen Umgebung viele Vorteile bieten, wenn sie sorgfältig und verantwortungsvoll eingesetzt wird. Es ist jedoch wichtig, dass die Risiken und Gefahren berücksichtigt und minimiert werden, um sicherzustellen, dass der Einsatz von ChatGPT zu einer sicheren und effektiven Patientenversorgung beiträgt.

Wow, werden Sie jetzt vielleicht denken. Spannend! Tatsächlich hätten wir diese Frage kaum besser beantworten können: Es gibt im Praxismanagement Einsatzmöglichkeiten von ChatGPT, zugleich sind mit dem Chatbot aber auch Risiken verbunden, die unbedingt gut abzuwägen sind.

© 2024 PKV Institut GmbH. Alle Rechte vorbehalten.


Sämtliche Texte und Bilder in unserem Online-Magazin sind urheberrechtlich geschützt. Bitte beachten Sie, dass auch dieser Artikel urheberrechtlich geschützt ist und nur mit schriftlicher Genehmigung des PKV Instituts wiederveröffentlicht und vervielfältigt werden darf. Wenden Sie sich hierzu bitte jederzeit unter Angabe des gewünschten Titels an unsere Redaktionsleitung Silke Uhlemann: redaktion(at)pkv-institut.de. Vielen Dank!

Die Nutzung der Inhalte des Online-Magazins für Text und Data Mining im Sinne des § 44b UrhG ist ausdrücklich vorbehalten (§ 44b Abs. 3 UrhG) und daher verboten. Die Inhalte dieses Werkes dürfen nicht zur Entwicklung, zum Training und/oder zur Anreicherung von KI-Systemen, insbesondere von generativen KI-Systemen, verwendet werden. 

Jetzt Datenschutzbeauftragte werden!

Werden Sie zur Datenschutz­beauftragten und gewinnen Sie an Sicherheit – flexibel neben dem Beruf!