Ich wusste, der Tag wird kommen. Und er war vorgestern.
Ein Patient sitzt mir gegenüber, holt sein Smartphone heraus und zeigt mir eine personalisierte GPT-Anwendung. In dieses Modell hat er seine gesamten medizinischen Unterlagen der letzten zehn Jahre geladen. Laborwerte, Arztbriefe, Entlassberichte. Die KI hat sie ausgewertet und eine strukturierte Zusammenfassung erstellt. Chronologie, Warnhinweise, Fragen zur weiteren Behandlung. Alles drin...
Ich frage ihn, warum er nicht einfach die ePA nutzt. Seine Antwort war, er habe es versucht. Aber das was er sich davon erhofft hatte, habe er dort nicht bekommen. Keine Übersicht, keine Auswertung, keine echte Hilfe.
Auf meinen Hinweis, dass das datenschutzrechtlich natürlich bedenklich sei, kam ein ehrliches Nicken. Er verstehe das. Aber ihm sei wichtiger, schnell an eine bessere Beratung zu kommen. Das habe für ihn Priorität.
Ich war ehrlich gesagt sprachlos. Denn all diese Daten, die ihm strukturiert vorlagen, hatte ich nicht vorliegen. Geschweige denn genug Zeit, sie in der Kürze des Gesprächs auszuwerten. Am Ende hatte er sich viele Antworten schon selbst gegeben. Und wollte von mir die Absicherung.
Das verändert ganz vieles. Ich muss das selbst erst einmal einordnen. Ich weiß noch nicht genau, wie wir damit umgehen wollen. Aber sicher ist, dass wir über diese Realität nicht länger hinwegsehen können.