Beim Umgang mit leistungsstarken Werkzeugen, sei es ein Medizinprodukt oder ein komplexes Programm für künstliche Intelligenz, ist ein klares Verständnis für die Zweckbestimmung entscheidend. Im Bereich der KI entsteht eines der häufigsten Missverständnisse durch die Verwendung von Tools wie ChatGPT, eine fortschrittliche Spracherzeugung von OpenAI.
Es kommt häufig vor, dass Menschen solche KI-Tools für die falschen Zwecke einsetzen. Diese Missverständnisse können zu unrealistischen Erwartungen und einer Missachtung der tatsächlichen Fähigkeiten der KI-Technologie führen. Wie kann man also diese leistungsstarken Tools richtig verstehen und einsetzen? Schauen wir uns ChatGPT als Beispiel genauer an.
Im Kern ist ChatGPT so konzipiert, dass es menschliche Sprachmuster nachahmt. Dies geschieht durch die Verarbeitung großer Datenmengen. Betrachten wir ein Szenario, in dem Sie ChatGPT mit einem komplexen physikalischen Problem füttern. Wenn ChatGPT eine Antwort liefert, die zwar plausibel klingt, aber physikalisch nicht korrekt ist, sollten wir ChatGPT dann als Versager abtun? Ganz und gar nicht. Vielmehr zeigt dieses Szenario, dass ChatGPT genau das tut, wofür es entwickelt wurde. Es erzeugt Sprache, die sich kontextuell angemessen anfühlt.
Wie jedes andere Tool hat ChatGPT jedoch aufgrund seines Designs Einschränkungen. Es enthält kein semantisches Netz, das die Welt systematisch abbildet. Es ist nicht mit strukturierten Konzepten wie physikalischen Gesetzen oder der Unterscheidung zwischen abstrakten und konkreten Konzepten kodiert. Für ChatGPT ist die Sprache kein Abbild der Welt, sondern sie ist die Welt.
Eine der unmittelbaren Folgen dieser Designentscheidung ist, dass ChatGPT sich nicht selbst überwacht, während es spricht. Die Sprache, die es erzeugt, ist frei von Subtext, Ironie, persönlichen Meinungen und moralischen Überzeugungen. Die erzeugte Sprache ist frei von diesen menschlichen Eigenschaften, weil es einfach nicht das ist, wofür sie entwickelt wurde. Das ist so, als würde man von einem Foto einer Blume erwarten, dass es duftet - eine unfaire Erwartung, um es vorsichtig auszudrücken.
Dieser Mangel an Vorhersagbarkeit und Validierung stellt uns vor Herausforderungen, wenn wir versuchen, ChatGPT in stark regulierten Bereichen wie klinischen Bewertungen einzusetzen. Die Unvorhersehbarkeit seiner Antworten und seine Unfähigkeit, strukturierte Konzepte zu verstehen und anzuwenden, machen es für diese Bereiche ungeeignet - ähnlich wie wenn man einen Vogel bitten würde, zu schwimmen.
Auch wenn die heutige KI, wie ChatGPT, nicht für alle Anwendungen geeignet ist, sollten wir das Potenzial der KI nicht vorschnell abtun. Wir sehen bereits vielversprechende Fortschritte in der KI-Technologie. Künftige KI mit ausgefeilteren Strukturen, objektbasierter Technischer Dokumentation (eTD), regelbasierten Abläufen und einem Netzwerk bewährter Wahrheiten könnte in der Lage sein, sich selbst zu überwachen und ihre Aussagen anzupassen. Mit solchen Fähigkeiten sind der Fantasie keine Grenzen gesetzt.
Der aktuelle Stand der KI erinnert an das alte Sprichwort von der Torheit, vorschnell zu urteilen. Es ist zwar verlockend, über die humorvollen Fehler der KI zu lachen und zu sagen: "Echte Intelligenz kann niemals so aussehen", aber wir dürfen nicht vergessen, dass die Entwicklung der KI noch lange nicht in Stein gemeißelt ist. Die KI befindet sich noch in ihrer Entstehungsphase und entwickelt sich in rasantem Tempo weiter.
Wo müssen wir also ansetzen, wenn wir uns die Möglichkeiten der KI in Zukunft zunutze machen wollen? Der Schlüssel sind strukturierte Informationen. Die Digitalisierung Ihrer technischen Dokumentation für die EU-Verordnungen über Medizinprodukte (MDR) und In-vitro-Diagnostika (IVDR) könnte zum Beispiel ein hervorragender Ausgangspunkt sein. Diese strukturierten Informationen werden in Zukunft die Grundlage für Automatisierung und KI-Funktionen bilden.
Mit Blick auf eine Zukunft, in der KI eine größere Rolle in Bereichen wie Regulatory Affairs und Medical Writing spielt, ist es wichtig, die Fähigkeiten und Grenzen aktueller KI-Tools zu verstehen. Die Erkenntnisse, die wir aus dem Verständnis von Tools wie ChatGPT gewinnen können, können uns helfen.
Diese Überlegungen zu KI wurden durch die aufschlussreichen Gedanken von Florian Aigner inspiriert. Seine Sichtweise erinnert uns daran, dass wir zunächst ihren Zweck und ihre Grenzen verstehen müssen, um das volle Potenzial der KI auszuschöpfen. Auch in der Medizintechnik.