GitHub und OpenAI haben eine Vorschau auf ihr neues KI-Tool, den GitHub Copilot, veröffentlicht. In a Blogpost. GitHub CEO Nat Friedman nannte das Tool einen Pair Programmer, der Kontext aus geschriebenem Code ziehen und neue Funktionen vorschlagen kann, die Programmierern helfen, neue Wege zu finden, um ihre Probleme zu lösen und ihre Arbeit schneller abzuschließen.
Herkömmlicherweise sind Pair Programmer zwei Personen, die an demselben Projekt arbeiten, um Fehler im Code frühzeitig zu entdecken und den Entwicklungsprozess zu beschleunigen. Bei dieser Entwicklung möchte GitHub einen der Programmierer als KI-Tool haben. Dies ist dieerster großer Rollout von Open AI nach Microsoft hat 1 Milliarde US-Dollar investiert in der gemeinnützigen Organisation, die jetzt anstrebt Gewinnobergrenze. Microsoft auchbesitzt GitHub, ein Software-Code-Repository, das bei Programmierern sehr beliebt ist.
Copilot arbeitet am Open AI Codex, der ein Nachkomme von GPT-3 Generative Pre-trained Transformer 3 ist, dem Sprachgenerierungsalgorithmus von Open AI. GPT-3 machte globale Schlagzeilen, als es nahezu menschlich demonstrierte. Schreibfähigkeiten im Jahr 2020, dank der wahnsinnigen Anzahl von Parametern, die es verwendet, um Verbindungen zwischen Wörtern, Phrasen und Sätzen herzustellen.
OpenAI Codex hat seinerseits die Terabytes an Code verschlungen, die auf GitHub und in englischer Sprache verfügbar sind, und kann jetzt problemlos Codes vorschlagen. Eine kommerzielle Version von Copilot wird voraussichtlich in den nächsten Monaten auf den Markt kommen, genau wie GPT-3 wurde letztes Jahr für die kommerzielle Lizenzierung verfügbar. Copilot ist mit vielen Sprachen kompatibel, wird aber funktionieren b getestet mit Python, JavaScript, TypeScript, Ruby und Go, nach Friedman.
Wie bei allen Dingen in der Technologie wird Copilot die Verzerrungen des analysierten Codes erben, die sich in der generierten Ausgabe widerspiegeln."GitHub Copilot kann manchmal unerwünschte Ausgaben erzeugen, einschließlich voreingenommener, diskriminierender, beleidigender oder beleidigender Ausgaben" auf seiner Website steht unter Verantwortungsvolle KI. Verzerrungen wurden auch in festgestelltGPT-3-Ausgänge. GitHub behauptet, dass es enthalten istFilter, um anstößige Wörter zu blockieren und zu vermeiden, Vorschläge in sensiblen Kontexten zu synthetisieren. Ergebnisse aus der Praxis werden uns zeigen, wie effektiv sich diese erwiesen haben.
Benutzer, die Copilot ausprobieren möchten, müssen tragen Sie sich in diese Warteliste ein.