Gerry Liaropoulos (Director of Data Science and Bioinformatics bei Intelligencia.ai) und Jan Przybylowicz (Investment Analyst bei MTIP) sprechen mit Anja-Vanessa Peter (Communication Manager bei MTIP) über das Innenleben von ChatGPT und die Auswirkungen auf die Welt der Medizin und Datenwissenschaft.
Das Gesundheitswesen ist mit einer Vielzahl von Herausforderungen konfrontiert, wenn es darum geht, eine qualitativ hochwertige Gesundheitsversorgung zu gewährleisten. Der Anstieg der Patientenzahlen, der zunehmende Mangel an qualifiziertem Personal, die Fortschritte in der medizinischen Wissenschaft und Information, die wachsenden Qualitätsanforderungen und die steigenden Gesundheitskosten führen dazu, dass bessere Methoden für die effektive Verwaltung moderner Systeme entwickelt werden müssen. Die Einführung neuer Technologien und Innovationen durch Healthtech-Startups kann dazu beitragen, diese systemischen Herausforderungen zu bewältigen. Von allen aufkommenden Technologien ist die künstliche Intelligenz vielleicht der vielversprechendste Bereich, der die meiste Aufmerksamkeit auf sich zieht. Nach Angaben von CB Insights werden die weltweiten KI-Finanzierungen im Jahr 2022 45,8 Milliarden Dollar erreichen. 34 Start-ups konnten Finanzierungsrunden in Milliardenhöhe abschließen, womit sich die Zahl der KI-Einhörner auf 166 erhöht.
In den letzten Monaten gab es einen beispiellosen Hype um die neuesten Iterationen von ChatGPT - einem extrem vielseitigen Chatbot, der im November 2022 von OpenAI veröffentlicht wurde. Gerry Liaropoulos (Director of Data Science and Bioinformatics bei Intelligencia.ai) und Jan Przybylowicz (Investment Analyst bei MTIP) sprechen mit Anja-Vanessa Peter (Communication Manager bei MTIP) über das Innenleben von ChatGPT und die Auswirkungen auf die Welt der Medizin und Datenwissenschaft.
Anja: Gerry, kannst du erklären, wie ChatGPT funktioniert?
Gerry: GPT steht für "Generative Pre-Trained Transformer" und ist anwendbar auf Aufgaben wie das Verstehen von Sprache, wie wir es NLP nennen - "Natural Language Processing". ChatGPT ist nicht das erste Modell, das GPT verwendet. Es basiert auf Iterationen von GPT-Modellen, die von OpenAI feinabgestimmt wurden, und auch andere Institutionen und Unternehmen haben GPT-Modelle entwickelt. GPT-Modelle sind im Allgemeinen transformatorbasierte neuronale Netze. Es ist ein Konzept, bei dem wir versuchen zu simulieren, wie unser Gehirn funktioniert. Deshalb nennen wir es neuronale Netze. Es hat tiefe Schichten mit vielen Parametern, die alle Besonderheiten einer Aufgabe erfassen. Eine Aufgabe wäre in unserem Fall das Verstehen der Sprache, und die Transformatorarchitektur ist das, was wir in den GPT-Modellen verwenden. Die Nachricht muss einen Kodierer und einen Dekodierer durchlaufen. Der High-Level-Kodierer nimmt eine Eingabe auf und wandelt sie in ein Verständnis auf niedrigerer Ebene um. Er nimmt eine komplizierte Aufgabe und macht sie für das Modell selbst leichter verständlich, während der Decoder genau das Gegenteil tut. Er nimmt den Input - natürlich mit einigen anderen Mechanismen - und erzeugt einen verfeinerten Output. Es gibt also einen Encoder-Teil und einen Decoder-Teil, der die Ausgabe erzeugt. Das Interessante an ChatGPT ist, wie es sich von anderen GPT-Modellen unterscheidet. Besonders bemerkenswert ist der große Umfang des Modells mit einem beeindruckenden Satz von 175 Milliarden Parametern, der auf einem großen Textkorpus aus z. B. Wikipedia, wissenschaftlichen Zeitschriften, Artikeln usw. trainiert wurde. Nach diesem langen Trainingsprozess wurde ChatGPT auf verschiedene Fragen und Antworten trainiert, die von KI-Trainern erstellt wurden. Der KI-Trainer würde damit beginnen, dem Modell Fragen und Antworten zu geben, die mit den von ihm gewünschten Antworten auf zukünftige Fragen übereinstimmen. Das ist also ein Zusatz zu einem allgemeinen GPT-Modell, wir nennen es überwachte Feinabstimmung. Überwacht deshalb, weil sowohl die Frage als auch die Antwort direkt von den Menschen gegeben werden.
Eine weitere Ergänzung dazu ist das, was man in OpenAI das verstärkende Lernen aus menschlichem Feedback nennt. Nach dem vorangegangenen Prozess würden die KI-Ausbilder das Modell auffordern, Antworten auf eine Frage zu geben und sie so zu ordnen, dass sie die korrekteste oder relevanteste Antwort als vorrangig ansehen. Als Ergebnis würde das Modell verstehen, worauf es bei zukünftigen Fragen mehr Gewicht legen sollte. Das ist der allgemeine Ansatz für die Erstellung des ChatGPT-Modells. Wenn ein Benutzer die OpenAI-Website aufruft und mit ChatGPT interagiert, indem er eine Frage schreibt, wird dieser Eingabeaufforderungstext an eine Vorverarbeitungspipeline weitergeleitet, die diesen Text in Token umwandelt. Wir können Token als die grundlegenden Texteinheiten bezeichnen, die in NLP-Modellen verwendet werden. Diese Token werden dann an einen weiteren Prozess namens "Embedding" weitergegeben, wo sie in Vektoren umgewandelt werden, die im Grunde genommen Zahlen sind. Wir gehen also von Wörtern zu Zahlen über. Dieser Prozess durchläuft dann die Transformatorarchitektur Encoder/Decoder. Die Ausgabe sind dann wieder Zahlen, die in Token umgewandelt werden, und dann haben wir den Text, der als potenzielle Antwort an den Benutzer generiert wird. So funktioniert das ChatGPT-Modell.
Anja: Fokussierung auf MTIPJan, wie können ChatGPT und ähnliche Modelle im Gesundheitswesen eingesetzt werden? Was sind die Chancen und Herausforderungen?
Jan: Wie Gerry bereits erwähnt hat, ist ChatGPT im Wesentlichen ein LLM. LLMs werden "Gründungsmodelle" genannt, weil sie einen Paradigmenwechsel in der KI vorantreiben. Warum ist das so? Basismodelle sind umfangreiche KI-Modelle, die mit großen Mengen an unbeschrifteten Daten trainiert werden. Auf diese Weise entstehen vielseitige Modelle, die bei Aufgaben wie der Bildklassifizierung, der Verarbeitung natürlicher Sprache und der Beantwortung von Fragen mit beeindruckender Genauigkeit glänzen. Andererseits sind die meisten der aktuellen KI-Modelle sehr aufgabenspezifisch.
Jüngste Fortschritte in der Entwicklung von Basismodellen können jedoch diese eng gefassten KI-Altlösungen durchbrechen und zur Entwicklung von Modellen führen, die Michael Moor et al. in ihrem kürzlich in Nature veröffentlichten Artikel als generalistische medizinische KI (GMAI) bezeichnen. GMAI-Modelle unterscheiden sich von herkömmlichen medizinischen KI-Modellen in drei wesentlichen Punkten. Erstens ist die Anpassung eines GMAI-Modells an eine neue Aufgabe einfach, da die dynamische Aufgabenspezifikation es den Modellen ermöglicht, neue Aufgaben ohne erneutes Training durchzuführen. Zweitens können GMAI-Modelle Eingaben akzeptieren und Ausgaben unter Verwendung verschiedener Kombinationen von Datenmodalitäten erzeugen. Drittens werden GMAI-Modelle medizinisches Wissen formal darstellen, so dass sie in der Lage sind, über neue Aufgaben nachzudenken und ihre Ergebnisse in medizinisch korrekter Sprache zu erklären.
Unternehmen wie Google und Microsoft nutzen bereits LLMs und generative KI für Anwendungen im Gesundheitswesen. Googles Med-PaLM 2, ein medizinisches LLM, wird von ausgewählten Google-Cloud-Kunden getestet, um Anwendungen wie die Beantwortung medizinischer Fragen und die Analyse unstrukturierter Texte zu erforschen. Microsofts Azure Health Bot-Vorlage, die den Azure OpenAI Service integriert, ermöglicht es Gesundheitsorganisationen, Fragen mit validierten Quellen zu beantworten. Eine von Huma.AI durchgeführte Umfrage ergab, dass 86 % der Verantwortlichen für medizinische Angelegenheiten generative KI als vorteilhaft für Life-Sciences-Unternehmen ansehen, da sie das Engagement verbessern und die sichere Verwendung von Produkten gewährleisten.
Wenn ich mich speziell auf das kommerziell erhältliche ChatGPT konzentriere, kann ich sehen, wie es über APIs mit anderen Systemen verbunden werden kann, um deren Fähigkeiten exponentiell zu verbessern. ChatGPT kann zum Beispiel in der Telemedizin eingesetzt werden, um Konsultationen zu rationalisieren, Aufzeichnungen zu transkribieren und Diagnosen und Behandlungen vorzuschlagen. Außerdem kann es die Patientenbindung durch personalisierte Nachrichten, Erinnerungen und Nachfassaktionen stärken und so die Zufriedenheit und Bindung verbessern. ChatGPT kann auch psychologische Unterstützung bieten, als Gesprächspartner dienen und allgemeine Gesundheitsfragen beantworten. Darüber hinaus können seine Übersetzungsfunktionen Kommunikationslücken überbrücken und so ein integratives Gesundheitssystem fördern.
Die Möglichkeiten, die sich durch medizinische Stiftungsmodelle ergeben, sind enorm und vielfältig. Ich bin fest davon überzeugt, dass KI die medizinische Praxis auf ein neues Niveau heben und die globalen Ungleichheiten verringern wird, indem sie die Zugänglichkeit und Erschwinglichkeit der Versorgung verbessert. Es ist von unschätzbarem Wert, Fachwissen in großem Umfang zu nutzen. Es ist zu hoffen, dass Ärzte durch die teilweise Automatisierung komplexer klinischer und administrativer Aufgaben in der Lage sein werden, mehr Zeit für den persönlichen Kontakt mit den Patienten aufzubringen. Ein patientenzentrierter Ansatz lindert nicht nur die Symptome der Patienten, sondern verbessert auch die diagnostische Wirksamkeit, die Einhaltung der Behandlungspläne und die Genesung.
Auf der anderen Seite stehen die Modelle in der Medizin auch vor einer Reihe von Herausforderungen. Validierung, Verifizierung und Erklärbarkeit sind aufgrund der Vielseitigkeit der Modelle und ihres Black-Box-Charakters schwer zu erreichen. Der Datenschutz ist eine weitere Herausforderung, da Modelle sensible Patientendaten preisgeben oder missbrauchen können. KI neigt auch dazu, menschliche Voreingenommenheit zu verewigen, was bereits marginalisierten Bevölkerungsgruppen schaden kann. Darüber hinaus wirft der zunehmende Umfang von Stiftungsmodellen Fragen hinsichtlich der Datenerfassung und der Umweltauswirkungen auf. Schließlich sind auch viele Herausforderungen im Zusammenhang mit der Regulierung der Ausübung der modernen Medizin zu erwarten. Werden Ärzte weiterhin die letzten Entscheidungsträger sein, oder wird sich die Hauptverantwortung für das Wohl der Patienten auf KI-Anbieter verlagern?
Zusammenfassend lässt sich sagen, dass ChatGPT und ähnliche Basismodelle in vielen Bereichen, darunter auch in der Medizin, einen großen Umbruch bewirken werden. Ich denke, dass Start-ups, die sich auf eng begrenzte KI-Lösungen konzentrieren, aufgrund von Fachwissen, Vorhersehbarkeit und behördlicher Zulassung für einige Zeit einen Wettbewerbsvorteil behalten werden, aber in vielen Fällen wird ein Zusammenschluss mit Basismodellen notwendig sein, um neue, exponentiell leistungsfähigere Fähigkeiten zu erschließen.
Anja: Andererseits, wie wertvoll ist ChatGPT in der Datenwissenschaft?
Gerry: Datenwissenschaft ist ein breiteres Feld, das auch das umfasst, was wir NLP, Natural Language Processing, und LLM, Large Language Models wie ChatGPT, nennen. Wie bereits erwähnt, befasst sich ChatGPT hauptsächlich mit Text, aber es ist auch sehr nützlich, wenn wir datenwissenschaftliche Fragen stellen, und ChatGPT kann uns mögliche Antworten liefern. Wir haben gesehen, dass wir ChatGPT nicht nur Fragen stellen können, sondern ihm auch Codeschnipsel geben und fragen können, was diese Codeschnipsel tun, oder sogar Fehler in unserem Code finden können, was aus Sicht der Datenwissenschaft wirklich erstaunlich ist. ChatGPT kann nicht nur den allgemeinen Kontext einer Frage verstehen, sondern auch erkennen, wo sich potenzielle Fehler im Code befinden könnten. Das hilft uns, den Code zu verbessern, indem wir die Fehler finden, eine Dokumentation schreiben und sogar den Code optimieren. Wir haben Fälle gesehen, in denen ChatGPT den Code von Softwareingenieuren und Datenwissenschaftlern optimiert hat. Das ist also wunderbar. Außerdem kann ChatGPT uns Codes zur Verfügung stellen, vor allem bei Aufgaben, die sich eher wiederholen. Anstatt dass der Datenwissenschaftler oder Software-Ingenieur den Code von Grund auf selbst schreibt oder sich durch Ressourcen wühlt, um eine optimale Lösung zu finden, kann ChatGPT in manchen Fällen einen Best-Practice-Code bereitstellen, der vielleicht noch etwas Feinschliff braucht, um ihn auf unseren eigenen Prozess anzuwenden. Auch hier steigert es die Produktivität eines Datenwissenschaftlers oder Softwareingenieurs erheblich.
Eine weitere Möglichkeit, wie wir ChatGPT nutzen können, um unsere Arbeit voranzutreiben, besteht darin, dass wir es um gemeinsame Data-Science-Lösungen oder -Ansätze für ein Problem bitten oder sogar darum bitten können, relevante Datenquellen für unser Problem zu finden und diesen neuen Datensatz in unsere Lösung zu integrieren und robustere Antworten zu finden. Drittens denke ich, dass man wirklich nach Best Practices suchen kann, um den Einfluss der Data-Science-Funktion auf das gesamte Unternehmen zu erhöhen. Was nun die potenziellen Fallstricke angeht, so sind nicht alle Antworten 100%ig. Wir sollten immer prüfen, ob beispielsweise der Code funktioniert oder ob er unseren Bedürfnissen entspricht, und es gibt natürlich Fälle, in denen wir zurückgehen und Teile davon neu schreiben könnten, aber es ist definitiv sehr hilfreich, nicht bei Null anzufangen, sondern von etwas auszugehen, das zu etwa 80 % vorhanden ist, und es auf 100 % zu bringen. Außerdem kann ChatGPT nicht sehr spezifisch für den Bereich sein, an dem wir arbeiten, und natürlich erst recht nicht für den spezifischen Datensatz, nach dem wir suchen.
Anja: Sie haben meine letzte Frage fast beantwortet: Hat KI das Potenzial, die Arbeit eines Datenwissenschaftlers vollständig zu ersetzen?
Gerry: Ich denke, dass Datenwissenschaftler, die KI nutzen, Datenwissenschaftler ersetzen werden, die keine KI nutzen. Das könnte auch in vielen anderen Bereichen der Fall sein. Als Praktiker in jedem Bereich muss man mit den neuesten Entwicklungen Schritt halten, und es ist so viel nützlicher, die Tools zu nutzen, die die eigene Produktivität steigern. In einem wettbewerbsintensiven Markt werden diejenigen, die produktiver sind, tendenziell länger bleiben und erfolgreicher sein. Aus meiner persönlichen Sicht sehe ich KI nicht als Bedrohung, sondern eher als Chance, wirklich mehr über Grenzen hinweg zu tun. In der Datenwissenschaft kann KI meiner Meinung nach wirklich unser Wissen nutzen, um bewährte Verfahren aus der Branche zu übernehmen, aber zumindest bis jetzt gab es noch keinen Fall, in dem wir unseren eigenen Datensatz hochladen und ChatGPT bitten konnten, die verschiedenen Aufgaben auszuführen. Außerdem muss ein guter Datenwissenschaftler die Daten wirklich verstehen, und zwar nicht nur aus der Perspektive der Zahlen, sondern er muss auch verstehen, was den Datenerzeugungsprozess antreibt. ChatGPT und alle Large Language Models - eigentlich alle KI-Modelle - haben keinen Sinn für die Logik, mit der die Daten generiert oder erstellt werden. Es handelt sich eher um assoziative Modelle, und das ist auch völlig in Ordnung so, aber es ist kein gesunder Menschenverstand oder kritisches Denken in sie integriert. Bislang ist es uns noch nicht gelungen, dies in ein KI-Modell zu implementieren. Wir versuchen im Grunde, KI-Modellen beizubringen, wie wir zu reagieren und von uns zu lernen. Ich denke, dass es in jeder Disziplin darauf ankommt, der Zeit voraus zu sein, alle Tools zu nutzen, die es gibt, um besser und produktiver zu sein, und sich über die neuesten Entwicklungen auf dem Laufenden zu halten.
Anja: Gibt es noch etwas, das Sie zu KI und Intelligenz sagen möchten?
Gerry: Bei Intelligencia leisten wir seit 2017 Pionierarbeit beim Einsatz von KI in der Arzneimittelentwicklung. KI ist das Herzstück unserer kategoriedefinierenden Plattform für die Risikobewertung in der Arzneimittelentwicklung und für Entscheidungen zur Portfoliostrategie und -verwaltung. Wir sind der festen Überzeugung, dass datengestützte Entscheidungen und der Einsatz datenbasierter Tools den Fortschritt und die Geschwindigkeit der Branche erheblich vorantreiben und letztlich bessere Therapien schneller zu den Patienten bringen können. Die jüngsten Fortschritte und Errungenschaften von KI-Modellen wie ChatGPT haben sowohl das Interesse der Branche als auch unseres Teams geweckt. Diese Entwicklungen schärfen nicht nur das Bewusstsein für die grenzenlosen Möglichkeiten der KI, sondern verbessern auch die Produktivität unseres Startups in verschiedenen Bereichen. Um das Potenzial von ChatGPT weiter zu erforschen, haben wir ein engagiertes Team zusammengestellt, das sich leidenschaftlich mit den Fähigkeiten von ChatGPT auseinandersetzt und herausfindet, wie es zu unseren übergreifenden Zielen beitragen kann. Die dynamische Natur des Startup-Ökosystems erfordert es, der Entwicklung voraus zu sein, um relevant zu bleiben, und dieses Streben, an der Spitze zu bleiben, fesselt und inspiriert unser Team weiterhin.
Anja: Vielen Dank, Gerry und Jan, für die aufschlussreichen Antworten auf meine Fragen! Es ist offensichtlich, dass die KI ein immenses Potenzial birgt, aber auch große Herausforderungen, die nicht ignoriert werden können. Ich freue mich auf die Fortschritte und Entdeckungen, die die Zukunft in diesem dynamischen Bereich bringen wird.