
イーロン・マスク氏が共同会長を務める非営利の米AI(人工知能)研究企業OpenAIは11月5日(現地時間)、自然言語の文章を生成する言語モデル「GPT-2」を公開したと発表した。 同社は2月、GPT-2を発表したが、その段階では悪意あるアプリに流用される懸念から、オープンソース化はせず、縮小版モデルと論文のみ公開した。 GPT-2は、ネット上のテキストの次の単語を予測するためだけに訓練されたTransformerベースの言語モデル。800万のWebページのデータセットで訓練し、15億のパラメータを持つ。 同社は段階的にパラメータの少ないモデルを公開してきたが、これまで広範な悪用はされていないため、完全版の公開に踏み切った。完全版を公開することにより、外部の研究者らが、より高性能な合成テキスト検出モデルを開発することを期待するとしている。 機械学習エンジニアのアダム・キング氏が公開しているG
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く