Meta libera acesso a modelo de linguagem com 175 bilhões de parâmetros

Meta libera acesso a modelo de linguagem com 175 bilhões de parâmetros

Essa é a primeira vez que um sistema desse tamanho inclui os modelos pré-treinados e o código necessário para treiná-los e usá-los. Além disso, o “Open Pretrained Transformer” (OPT-175B) foi treinado utilizando apenas um sétimo da pegada de carbono do GPT-3 da OpenAI. O modelo está disponível no repositório “facebookresearch/metaseq/tree/main/projects/OPT” no GitHub.