print logo

Kann ChatGPT auch selbst KI erschaffen?

Zum Für und Wider des ChatGPT-Einsatzes bei der High-Tech-Entwicklung.
AITAD GmbH | 23.03.2023
Kann ChatGPT auch selbst KI erschaffen © freepik / ipopba
 

ChatGPT, der KI-Chatbot der amerikanischen Firma OpenAI, hat für vielfältige Diskussionen gesorgt. Künstler und Texter machen sich Sorgen, von Künstlicher Intelligenz (KI) ersetzt zu werden. Service-Hotlines, akademische Abschlussarbeiten und sogar komplette Drehbücher für die neuesten Hollywood-Blockbuster – werden sie künftig von KI erstellt? Und welche ethischen, gesellschaftlichen und normativen Konsequenzen entstehen daraus? Der KI-Hersteller AITAD fragt sich parallel dazu, ob ChatGPT nicht auch selbst weitere KI erschaffen könnte und was das für die Code-Qualität, die Jobs von menschlichen Entwicklern und den Wettbewerb auf dem Markt bedeutet.

„Warum sollte ich es testen, wenn es meinen Arbeitsplatz bedroht?“, fragte sich einer der AITAD-Entwickler, als der Vorschlag diskutiert wurde, ChatGPT zur Erstellung von Programmcode einzusetzen.

Coden ist möglich, doch die Nachvollziehbarkeit leidet

Aus technischer Sicht stellt ChatGPT derzeit noch keine große Bedrohung dar, da er auf Softwarebibliotheken zurückgreift, die nicht jünger als zwei Jahre sind. Aktuelle Frameworks und Bibliotheken werden von der aktuellen Version noch nicht berücksichtigt. Doch das wird sich mit kommenden Versionen selbstverständlich ändern. Verglichen mit dem Gehalt eines Entwicklers stellen die Kosten für die Premiumversion des Chatbots jedenfalls kein Hindernis dar.

Problematischer hingegen sieht Viacheslav Gromov, CEO von AITAD, die Themen Transparenz und Nachvollziehbarkeit des Programmcodes. „Es ist zwar denkbar, dass der Chatbot nicht nur Programmcode schreibt, sondern diesen auch dokumentiert und das Testprogramm dazu schreibt.“ Allerdings ist damit zu rechnen, dass der Programmcode je nach Aufgabenformulierung mit verschiedenen (synonymen) Wortlauten unterschiedlich ausfällt. Auch der Stil des Codes, für den es Standardisierungen gäbe, sei volatil, ergänzt Gromov.

Der Einsatz von Chatbots als Programmierer birgt Gefahren

Fraglich bleibt auch, ob menschliche Entwickler effizienter arbeiten, wenn sie zuerst den von der KI erzeugten Code verstehen, auf Fehler prüfen und ergänzen müssten. „Das ist ja schon bei von Menschen erzeugtem Code eine herausfordernde Aufgabe“, gibt Gromov zu bedenken, der Zunächst den Chatbot-Einsatz für spezifisch abgegrenzte Programmier-Aufgaben sieht. Nicht zuletzt sei umstritten, ob denn die Kunden damit einverstanden seien, wenn ihre Entwicklungsaufgaben zum Chatbot ins Internet gesendet werden.

Wie bei allen umfassenden Automatisierungsvorhaben, schwinden durch den Einsatz von Chatbots die Unterscheidungsmerkmale und damit die Wettbewerbsfähigkeit, da die entsprechenden KI-Frameworks (Chatbots) ja von jedem Marktteilnehmer genutzt werden könnten. Nur der, der mehr und bessere Daten sowie umfangreichere Rechenressourcen zum Trainieren der Chatbots hat, hat auch das bessere Endprodukt. „Das kann auch schnell zu einem sehr schnelllebigen und globalen Wettbewerb unter den Staaten führen, die die Rahmenbedingungen durch Datenschutzregelungen und Staatsform setzen.“

Der Chatbot als Helfer

Eine KI, die selbst KI programmiert, ist heute kein (Alb-)Traum mehr, sondern birgt durchaus das Potenzial für eine schnellere, umfangreichere und komplexere Entwicklung, trotz Personalmangel. „Das sollte erschlossen werden. Allerdings ist zu beachten, dass die wahrscheinlichste Ausgabe nicht immer die beste ist. Denn zwischen Wahrscheinlichkeit und Qualität besteht kein zwingender Zusammenhang. Das ist etwa so, wie wenn Sie die Tageszeitung von gestern zerreißen und die an sich am besten nacheinander passenden Wortschnipsel ohne Gesamtverständnis zusammensetzen.“, gibt Gromov zum Schluss zu bedenken.