Es rauscht gewaltig im Blätterwald: Selten hat es ein KI-Tool bis in die Schlagzeilen geschafft, doch ChatGPT ist ein echter Medien-Star, der pure Verzückung aber auch ernste Bedenken auslöst. Gerade Branchen und Berufe, die ihr Geld mit Wissensarbeit verdienen, kommen um eine ernsthafte Auseinandersetzung mit Tools wie ChatGPT nicht herum. Im Interview machen die beiden Geschäftsführer der VDI/VDE Innovation + Technik GmbH (VDI/VDE-IT), Peter Dortans (PD) und Werner Wilke (WW), ihre Sicht auf das Phänomen deutlich.

Frage: Haben Sie Angst, dass ChatGPT Sie arbeitslos macht?

PD: Als Projektträger und Innovationsagentur sind wir ein wissensintensives Unternehmen. Unsere Leistungen für unsere Auftraggeber und Kunden beruhen auf dem Wissen unserer hochqualifizierten Mitarbeiterinnen und Mitarbeiter. Das wird auch in Zukunft so sein und ich habe keinerlei Befürchtung, dass ChatGPT oder seine denkbaren Nachfolger dieses Wissen und die zugehörigen Köpfe obsolet machen werden. Vielmehr kann ich mir vorstellen, dass derartige Tools Prozesse vereinfachen oder auch beschleunigen können.

Frage: Wie darf ich mir das vorstellen?

PD: Wie Sie sich denken können, haben wir als Innovationsakteur nur wenig Interesse daran, mit Tools wie ChatGPT Gedichte oder Liedertexte zu verfassen. Unsere Kunden benötigen vielmehr verlässliche Informationen, evidenzbasierte Aussagen, logische Ableitungen und belastbare Argumentationen. Hier ist es durchaus vorstellbar, dass KI-Tools teilweise für die Vorstrukturierung genutzt werden können.

Frage: So wie bisher Google alle Antworten kennt, wird ChatGPT nun alle Antworten auch formulieren?

WW: Nein, aber die Resultate können als Starthilfe genutzt werden. Wenn ich bislang einen Tag damit zubringe, ein Thema zu erschließen und übersichtsartig zusammenzufassen, geht das nun im Nu mit ein paar eingegebenen Anweisungen. Die Ergebnisse lesen sich auf den ersten Blick fast immer gut. Beim zweiten Blick ergeben sich dann aber oft Mängel: Referenzen stimmen nicht, Sachverhalte werden vermischt, Zusammenhänge nicht berücksichtigt etc. Auch wenn es Texte gibt, die auch inhaltlich korrekt sind, ist man gut beraten, alles kritisch zu prüfen. Und um das bei wissenschaftlichen und technischen Fachthemen zu gewährleisten, braucht es die entsprechenden Fachleute.

Frage: Nutzen Sie denn ChatGPT schon in der Praxis?

WW: Im Moment sammeln wir Erfahrungen mit praxisnahen Beispielen, die jedoch keine realen Kundenprojekte betreffen. Uns geht es zunächst darum zu ermitteln, wie ein Prozess gestaltet sein muss, welche Sicherungsmechanismen es geben muss, um solche Tools einsetzen zu können. Und wenn wir wissen, auf was wir achten müssen und wie wir eine hohe Qualität sicherstellen können, können wir auch über den Praxiseinsatz nachdenken.

Frage: In der Vergangenheit haben Chat-Bots oftmals in überraschend kurzer Zeit rassistische und diskriminierende Antwortmuster entwickelt. Welche Gefahren sehen Sie bei ChatGPT?

PD: Gegen bestimmte Antwortmuster scheinen Brandmauern einprogrammiert worden zu sein, sodass bisher noch keine Skandaltexte entstanden sind. Doch wir müssen uns fragen, wie gut diese Brandmauern halten, zu welchen unintendierten Effekten diese führen können und so weiter. Es reicht ja auch schon, wenn sich entweder im Zuge der Programmierung oder des Trainings oder auch der Nutzung Biases eingeschlichen haben oder einschleichen werden. Es wäre nicht das erste Mal, dass KI-Systeme eben nicht neutral sind.

WW: Wir bewegen uns mit ChatGPT in jedem Fall im Feld der verantwortungsvollen KI. Und für uns als Innovationsakteur steht die Verantwortung gegenüber unseren Auftraggebern und Kunden, aber auch gegenüber den von uns betreuten Zuwendungsempfängern und Stakeholdern an höchster Stelle. Wir können und wollen hier nichts riskieren. Aber gleichzeitig können und wollen wir uns dem Fortschritt nicht verweigern, denn vielleicht stehen wir an der Schwelle vom Werkzeug zum Denkzeug.

Frage: Wie bringen Sie diese beiden Ansprüche zur Deckung?

PD: Um ChatGPT für unsere Aufträge aus Bundes- und Landesministerien oder auch der Europäischen Kommission nutzen zu können, benötigen wir einen kuratierten Prozess. Wir wissen noch viel zu wenig darüber, was ChatGPT kann und was nicht und wo das System womöglich auch in die Irre führt. Einfach drauflos chatten kann da kein verantwortungsvoller Umgang sein. Darüber wollen wir auch den Dialog mit unseren Auftraggebern suchen.

Da wir im Jahr über 1,5 Milliarden Euro Fördergelder von Ministerien betreuen, haben wir natürlich umfangreiche und wirksame Prozesse für die Qualitätssicherung. Solche Mechanismen benötigen wir nun auch für ChatGPT & Co. Und zudem haben wir als Haus schon einige Jahre Erfahrung in der Nutzung von KI-gestützten Prozessen und Anwendungen, sodass wir hier sehr anschlussfähig sind.

WW: Peter Sloterdijk hatte Ende der 1990er Jahre die stark kontrovers diskutierten „Regeln für den Menschenpark“ verfasst. 25 Jahre später bin ich mir ziemlich sicher, dass wir eher „Regeln für den Maschinenpark“ brauchen – auch und gerade mit Blick auf ChatGPT.

Frage: Und die stellt die VDI/VDE-IT auf?

PD: Die Diskussion über den Umgang mit KI ist ja nicht neu oder gar durch ChatGPT entfacht, und wir sind in vielen Kontexten Teil dieser Diskussion. Nun geht es aber um einen konkreten Fall, der uns zudem im eigenen Alltag begegnet. Daher konzentrieren wir uns auf die Frage, wie diese Innovation die Arbeit von uns als Projektträger und Innovationsagentur beeinflusst.

WW: Da inzwischen erste Fragen aus dem parlamentarischen Raum nach der Nutzung von ChatGPT in Ministerien gestellt werden, laden wir Ministerien, Partner und die Community ein, sich gemeinsam mit uns darüber Gedanken zu machen, wie diese Innovation die Arbeit von Innovationsakteuren beeinflusst. Wir stellen mit unserem PT-Lab, in dem wir KI-gestützte Ansätze für das Fördern, Analysieren und Organisieren von Innovationen entwickeln, gerne ein Forum für den Austausch zur Verfügung.