Erste Programme zeigen: KI kann Code wie Menschen schreiben. Doch dabei entstehen auch unerwartete Fehler und neue Probleme.
Künstliche Intelligenz hat in den vergangenen Jahren große Fortschritte gemacht. KIs können nicht nur unsere Haushaltsgeräte steuern. Sie können auch Musik komponieren, unsere Autos (teilweise) fahren und sogar Gehirnströme in Sprache übersetzen.
Es überrascht daher nicht, dass viele Unternehmen mit immer neuen KI-Funktionen experimentieren. Eine davon: KI soll selbstständig Code schreiben können.
Neue Stellenangebote
Content Creator Social Media (m/w/d) Erlebnisbauernhof Gertrudenhof GmbH in Hürth |
||
Studentisches Praktikum – Video- & Social-Media-Marketing im Bankwesen (m/w/d) Taunus Sparkasse in Bad Homburg vor der Höhe |
||
Social Media Manager (m/w/d) NordwestLotto Schleswig-Holstein GmbH & Co. KG in Kiel |
KI: Code schreiben hilfreich, aber auch fehlerhaft
Erste Software-Entwickler:innen experimentieren mit derartigen Programmen. Eines der bekanntesten Beispiele dafür ist das Programm „Copilot“ von Github. Github ist auf die Entwicklung von Software spezialisiert und gehört seit 2018 zu Microsoft.
Bei Copilot geben Programmierer:innen die ersten Zeilen an Code ein. Die KI kann dann erraten, um was es sich für ein Programm handeln soll und schreibt daraufhin den restlichen Code. Copilot beruht auf einem KI-Programm des Unternehmens Open AI und soll Coder bei Github entlasten.
Erste Erfahrungen zeigen, dass Copilot durchaus hilfreich ist und Zeit spart, gleichzeitig aber auch neue Probleme schafft. So ist Copilot nicht fehlerfrei. Ganz im Gegenteil.
KI und Menschen machen unterschiedliche Fehler
Alex Naka ist Datenwissenschaftler bei Github und arbeitet seit einiger Zeit mit Copilot. Er hat nicht nur festgestellt, dass die KI, genau wie auch Menschen, Fehler in den Code einbaut. Naka fand es darüber hinaus schwieriger, diese Fehler zu finden, wie er gegenüber dem Magazin Wired berichtet.
„Es gab einige Male, in denen ich einige unterschwellige Fehler übersehen habe, wenn ich einen der Vorschläge akzeptiert habe“, sagt Naka. „Und es kann sehr schwierig sein, diese auszumachen, vielleicht weil die KI andere Fehler macht, als ich sie gemacht hätte.“
Sicherheit: In 40 Prozent der Fälle fehlerhafter Code
Naka ist kein Einzelfall. Eine Studie der New York University hat sich ausführlich mit Copilot beschäftigt und dabei festgestellt, dass die KI bei Sicherheitsfeatures in rund 40 Prozent der Fälle Fehler macht.
Das liege oftmals daran, dass eine Codezeile falsch interpretiert wird oder der KI ein genauerer Kontext fehlt, der vorher nicht mit einprogrammiert wurde, heißt es in der Untersuchung.
Brendan Dolan-Gavitt, einer der Verfasser der Copilot-Studie, hat zudem festgestellt, dass die KI aus Versehen eine Reihe von verbotenen, beleidigenden Begriffen mit in den Code eingebaut hatte. Offenbar sind das die Begriffe, die das Programm vermeiden sollte.
While I wait for the GPU to churn through 2*26^11 possibilities, a brief recap of how we got here. It started when I noticed this bit of code in the @GitHubCopilot Visual Studio Code extension that detects naughty words in either the prompt or the suggestions. pic.twitter.com/MHH1l0Ez3E
— Brendan Dolan-Gavitt (@moyix) September 2, 2021
Oege de Moor wiederum, der Copilot für Github mitentwickelt hat, betont, dass diese Fehlerquote sich nur auf eine Unterkategorie des gesamten Codes beziehe – und zwar auf eine Kategorie, in der Fehler wahrscheinlicher seien.
Oege de Moor verweist außerdem auf „CodeQL“, eine Art Rechtschreibprüfung für Copilot, die er ebenfalls entwickelt hat. CodeQL kann Programmierfehler innerhalb von Copilot aufdecken, weshalb de Moor empfiehlt, die beiden Programme gemeinsam zu nutzen.
Riesiges Marktpotenzial
Github ist natürlich nicht das einzige Unternehmen, das KI nutzt, um Code zu schreiben. Denn die Technologie hat großes Potenzial. 2020 lag der Marktwert von Künstlicher Intelligenz bei 35,92 Milliarden US-Dollar. Analysen zeigen zudem, dass der KI-Markt bis 2028 sogar auf einen Wert von 360,36 Milliarden US-Dollar wachsen könnte.
Dennoch sind einige Entwickler:innen noch sehr skeptisch. Sie befürchten, dass die Art und Weise wie KIs Code schreiben, eigentlich nur auf dem Abschreiben anderer Programme beruht. Eine Praxis, die die Tech-Gemeinschaft eigentlich ausrotten möchte.
Andere machen sich zudem Sorgen um die Sicherheit von Programmen, die von KIs geschrieben wurden. Denn wenn der Code auf existierenden Codes basiert, macht es dies für Hacker sehr viel leichter, sich in die Programme einzuschleusen und Malware zu platzieren.
KI-Entwickler de Moor dagegen glaubt an die Zukunft der Programme. Er gibt zwar zu, dass es noch viel zu verbessern gibt. Doch er glaubt auch, dass KIs beim Code schreiben noch am Anfang stehen und schon sehr bald kaum noch Fehler machen werden.
Auch interessant: