未来を創る、テックコミュニティー

代表通信~Hugging Faceすげーぞの話

草場代表
2020/08/11

こんばんは。代表の草場です。

自然言語処理分野において、Hugging Faceがすげーす。ミッションは以下の感じ。
「私たちは、すべての人のためにNLPを進化させ、民主化するための旅に出ています。その過程で、より良い技術の開発に貢献しています。」
GitHubもめちゃ充実しています。最近は何といってもTransformerです。
Transformerは、以下のようなNLU/NLGアーキテクチャを提供しています。大量だ。

1.BERTは、「BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding」でリリース。
2.GPTは「Improving Language Understanding by Generative Pre-Training」とともにリリース。
3.GPT-2は「Language Models are Unsupervised Multitask Learners」が公開
4.Transformer-XLは「Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context 」がリリース。
5.XLNetは「 ​XLNet: Generalized Autoregressive Pretraining for Language Understanding 」でリリースさ
6.XLM は、「 Cross-lingual Language Model Pretraining」の論文と共にリリース。
。。。。。以下続く。。すげーぞ。そして最後に以下のメッセージです。
「新しいモデルを投稿してみませんか?新しいモデルを追加するプロセスの詳細なガイドとテンプレートを追加しました。これらはテンプレートにあります。」

これが中島さんが言っていた、オープンソースへの貢献ですね。提案してみよう、貢献してみよう。

明日もHugging Face

この記事を書いた人
草場代表
エディター