Werbung

Neues KI-Tool schreibt eigenen Code

Das neue Tool von Open AI, Copilot, kann geschriebenen Code analysieren und neuen passenden Code generieren.

Bild zeigt Programmiercode Pexels / Markus Spiske

GitHub und OpenAI haben eine Vorschau auf ihr neues KI-Tool, den GitHub Copilot, veröffentlicht. In a Blogpost. GitHub CEO Nat Friedman nannte das Tool einen Pair Programmer, der Kontext aus geschriebenem Code ziehen und neue Funktionen vorschlagen kann, die Programmierern helfen, neue Wege zu finden, um ihre Probleme zu lösen und ihre Arbeit schneller abzuschließen.

Herkömmlicherweise sind Pair Programmer zwei Personen, die an demselben Projekt arbeiten, um Fehler im Code frühzeitig zu entdecken und den Entwicklungsprozess zu beschleunigen. Bei dieser Entwicklung möchte GitHub einen der Programmierer als KI-Tool haben. Dies ist dieerster großer Rollout von Open AI nach Microsoft hat 1 Milliarde US-Dollar investiert in der gemeinnützigen Organisation, die jetzt anstrebt Gewinnobergrenze. Microsoft auchbesitzt GitHub, ein Software-Code-Repository, das bei Programmierern sehr beliebt ist.

Copilot arbeitet am Open AI Codex, der ein Nachkomme von GPT-3 Generative Pre-trained Transformer 3 ist, dem Sprachgenerierungsalgorithmus von Open AI. GPT-3 machte globale Schlagzeilen, als es nahezu menschlich demonstrierte. Schreibfähigkeiten im Jahr 2020, dank der wahnsinnigen Anzahl von Parametern, die es verwendet, um Verbindungen zwischen Wörtern, Phrasen und Sätzen herzustellen.

OpenAI Codex hat seinerseits die Terabytes an Code verschlungen, die auf GitHub und in englischer Sprache verfügbar sind, und kann jetzt problemlos Codes vorschlagen. Eine kommerzielle Version von Copilot wird voraussichtlich in den nächsten Monaten auf den Markt kommen, genau wie GPT-3 wurde letztes Jahr für die kommerzielle Lizenzierung verfügbar. Copilot ist mit vielen Sprachen kompatibel, wird aber funktionieren b getestet mit Python, JavaScript, TypeScript, Ruby und Go, nach Friedman.

Wie bei allen Dingen in der Technologie wird Copilot die Verzerrungen des analysierten Codes erben, die sich in der generierten Ausgabe widerspiegeln."GitHub Copilot kann manchmal unerwünschte Ausgaben erzeugen, einschließlich voreingenommener, diskriminierender, beleidigender oder beleidigender Ausgaben" auf seiner Website steht unter Verantwortungsvolle KI. Verzerrungen wurden auch in festgestelltGPT-3-Ausgänge. GitHub behauptet, dass es enthalten istFilter, um anstößige Wörter zu blockieren und zu vermeiden, Vorschläge in sensiblen Kontexten zu synthetisieren. Ergebnisse aus der Praxis werden uns zeigen, wie effektiv sich diese erwiesen haben.

Werbung

Benutzer, die Copilot ausprobieren möchten, müssen tragen Sie sich in diese Warteliste ein.

Folgen Sie uns auf

Bleiben Sie über die neuesten technischen Nachrichten auf dem Laufenden

Geben Sie einfach Ihre E-Mail ein und wir kümmern uns um den Rest :

Mit der Anmeldung stimmen Sie unseren zuNutzungsbedingungen und Datenschutzrichtlinie. Sie können sich jederzeit abmelden.