Generative Pre-trained Transformer 3
Generative Pre-trained Transformer 3 (
GPT-3) ist ein im Mai 2020 vorgestelltes autoregressives
Sprachmodell, das
Deep Learning verwendet, um natürlich wirkenden Text zu produzieren. Es ist der Nachfolger von GPT-2 und wurde von
OpenAI entwickelt, einem amerikanischen Unternehmen, das Forschung zu
künstlicher Intelligenz betreibt. Die größte Version von GPT-3 besitzt 175 Milliarden
Parameter. GPT-3 ist Teil eines Trends in der
Computerlinguistik, Systeme mit vortrainierten Sprachrepräsentationen zu nutzen.
Die Qualität der von GPT-3 generierten Texte ist so hoch, dass es schwierig ist, sie von Texten zu unterscheiden, die von Menschen geschrieben wurden, was sowohl Vorteile als auch Nachteile hat.
Microsoft verkündete im September 2020, dass es die „exklusiven“ Nutzungsrechte an GPT-3 lizenziert habe, andere können weiterhin die öffentliche API nutzen, aber nur Microsoft habe Kontrolle über den
Quellcode.
Veröffentlicht in Wikipedia