Faszinierend und effizient, aber manipulierbar

ChatGPT im Realitätscheck

12.07.2023 von

Ruth Stock-Homburg, BWL-Professorin der TU Darmstadt und Gründerin des Forschungslabors „leap in time“, hat mit ihrem Team das KI-System ChatGPT getestet. Sie sieht in der Technologie eine Riesenchance, warnt aber auch vor Sicherheits- und Datenschutzmängeln. Teil zwei einer dreiteiligen Serie zum Thema „Was kann KI?“

Professorin Ruth Stock-Homburg, Fachgebiet Marketing und Personalmanagement

Mails schreiben, Programmiercodes erstellen, die Ergebnisse stundenlanger Meetings in einem Protokoll zusammenfassen, sich Inspirationen für die nächste Firmenpräsentation oder die Uni-Hausarbeit holen? Und das vielleicht gleich in verschiedenen Sprachen? Kein Problem. ChatGPT erledigt in Sekunden, wofür Menschen Stunden oder Tage brauchen.

„Ein solches System kann die Arbeit enorm erleichtern“, sagt die KI-Expertin und BWL-Professorin Ruth Stock-Homburg. Wissenschaftler:innen der TU Darmstadt sowie ihres Darmstädter Forschungsinstituts „leap in time“ haben die neue KI-Assistenz auf ihre Leistungsfähigkeit getestet und mit menschlichen Teams verglichen.

Für die Zusammenfassung von Protokollen etwa braucht die KI nur ein paar Sekunden. Wenn es also darum geht, Texte, basierend auf einer sehr breiten Wissensbasis, zu sichten und zusammenzufassen, „kann ChatGPT sehr inspirierend und effizient sein“, betont Stock-Homburg. Bei 20 bis 30 Prozent könne der Effizienzgewinn liegen, schätzt die TU-Professorin. „Wenn man weiß, worum es geht, und die Inhalte abschätzen kann, ist das eine deutliche Hilfe.“ Wenn nicht, wird es heikel.

Falsche Auskünfte sind möglich

ChatGPT bietet Chancen, birgt aber auch Risiken
ChatGPT bietet Chancen, birgt aber auch Risiken

Auf der Suche nach möglichen Schwachstellen hat das Darmstädter Team ChatGPT wochenlang mit tausenden Anfragen gefüttert. Ergebnis: Das System gibt Auskunft, selbst wenn es keine Ahnung hat. Der Chatbot erfindet notfalls Antworten, verkündet schlichtweg „Fake News“. Sogar die Quellenangaben sind dann oftmals falsch oder führen ins Leere. „Die Texte hören sich extrem plausibel an, klingen sehr kompetent, aber im Schnitt ist jede fünfte Antwort falsch.“

Fachleute nennen das KI-Halluzinationen. Dazu kommt es, wenn das System nicht über ausreichende Daten verfügt oder mit falschen Informationen gefüttert wurde. Ein Mangel an Trainingsdaten sind der Grund für mögliche blinde Flecken – oftmals kritisiert etwa bei Themen wie Diversität oder bei rassistischen Benachteiligungen. Die so genannten Algorithmic Bias sind eine Ursache für Diskriminierungen durch Algorithmen. Die Software von ChatGPT basiert auf Daten von 2021. Entwickelt hat sie die amerikanische Firma OpenAI, die von dem Internetgiganten Microsoft mit Milliarden Dollar gefördert wird.

Professorin Stock-Homburg gibt ein weiteres Beispiel für Halluzinationen und falsche Fährten. So führte der Chat-Assistent bei Fragen nach Klimawandel, umweltfreundlichen Initiativen oder Organisationen die Forscherenden etwa auf eine Internetseite über Diabeteserkrankungen. „Weil dort die Rede von Nachhaltigkeit war.“ Die Professorin warnt daher: Sind Themen, Inhalte oder Prozesse für Nutzer und Nutzerinnen neu und unbekannt, „führt der Chatbot unter Umständen in eine Sackgasse“. Sie rät ab von allzu großer KI-Hörigkeit. „Dem Navigationssystem im Auto sollte man ja auch nicht blind vertrauen.“

Profitables Geschäftsmodell

Auch Lücken bei der Sicherheit und Datenschutzmängel hat das Darmstädter Team ausfindig machen können. Gerade der Datenschutz ist laut Stock-Homburg sehr kritisch. ChatGPT soll künftig als eine Art Co-Pilot bei Microsoft 365 integriert werden. Wer ihn nutzt, dessen Daten liegen dann in Clouddiensten auf Servern in den USA oder bei amerikanischen Unternehmen. „Was dort mit den Daten passiert, ist undurchsichtig“, sagt Stock-Homburg. Das sei eine Grauzone in der Datensicherheit.

Nach Ansicht der Forschenden bestehen auch Sicherheitsbedenken. Denn die in der Software eingebauten ethischen Leitlinien lassen sich leicht umgehen. Mit der richtigen Frageformulierung lässt sich die antrainierte Moral des Systems austricksen, und es spuckt beispielsweise detaillierte Anweisungen für den Enkeltrick aus, mit dem sich ältere Menschen allzu oft betrügen lassen. Möglicher Missbrauch durch Kriminelle hat auch die europäische Polizeibehörde Europol auf den Plan gerufen. Die Technik könne für Betrug, Falschinformation und Cybercrime wie Malware oder Phishing-Angriffe eingesetzt werden, heißt es in einem kürzlich veröffentlichten Bericht dazu aus Den Haag.

Assistenten wie ChatGPT, so die TU-Professorin, sind ein riesiger Markt und ein profitables Geschäftsmodell. Anwendungen als App für den Privatgebrauch, als Extra Plug-In in Video-Tools oder Co-Pilot bei Microsoft – damit lassen sich Milliarden verdienen. Noch sei das System nicht ausgereift, erklärt Stock-Homburg. Um die Effizienzvorteile zu nutzen, die die KI bringe, müssten Unternehmen ihre Mitarbeitenden entsprechend schulen.

Die richtige KI kann dazu beitragen, die bereits vorhandenen Beschäftigten zu entlasten und den Personalmangel auszugleichen.

Professorin Ruth Stock Homburg, Fachgebiet Marketing und Personalmanagement

Chance für Unternehmen

ChatGPT ist nur ein kleiner Bereich der KI-Forschung. Insgesamt sieht die TU-Professorin in der Künstlichen Intelligenz eine Riesenchance gerade auch für kleinere und mittlere Unternehmen, die derzeit keine oder nur schwer neue Mitarbeitende finden. „Der Fachkräftemangel ist dramatisch. Die richtige KI kann dazu beitragen, die bereits vorhandenen Beschäftigten zu entlasten und den Personalmangel auszugleichen“, ist sie überzeugt.

Stock-Homburg hofft auf mehr Wettbewerb im Bereich der KI-Assistenzen, der zu besseren Standards in Sicherheit und Datenschutz führen werde. Es gebe bereits Unternehmen und Startups in Deutschland wie etwa DeepL aus Köln, die Text- und Übersetzungsdienste anbieten – mit Servern, die in Europa stehen. Zudem Open Source Lösungen, Zusammenschlüsse von Forschenden und Nutzenden, die gemeinsam die KI mit Daten trainieren.

Und wie erkennen künftig Lehrende an Universitäten und Hochschulen, ob ihre Studierenden die Hausarbeiten oder Bachelorthesis selbst und nicht mit ChatGPT geschrieben haben? Die vom Chatbot verfassten Texte lesen sich nach Erfahrung der Professorin meist als sehr oberflächlich, austauschbar und generisch, gehen nicht wissenschaftlich in die Tiefe. Ein guter Weg sei auch, die Quellenangaben zu überprüfen, die oftmals ins Leere liefen. Sie rät ihren Kolleginnen und Kollegen, selbst einmal einen Text von ChatGPT schreiben zu lassen, um ein Gefühl für mögliche Antworten zu bekommen. Und vor allem: „Die KI-Assistenten fordern uns heraus. Wir sollten unsere Themen überdenken und keine 08/15 Aufgaben vergeben.“