2021年で面白かったTransformer関連論文

この記事はみらい翻訳アドベントカレンダー14日目の記事です。 2021年も終わりを迎える中、個人的には転職してからちょうど1年経ちました。 機械翻訳の研究開発に携わることもあり、自然言語処理や深層学習全般を中心にいろいろな論文を読んだ一年でした。 …

勉強会でJAXとFlaxを紹介した

多分1年以上ぶりに、発表枠 で勉強会に参加しました。 資料はこちらです speakerdeck.com もともとはGPT-3について解説する予定だったけど、15分で説明するのは無理と感じたため、急遽JAXとFlaxに話題を切り替えた。 JAXについては、すでに界隈で十分に評価…

MNTSQからみらい翻訳に転職しました

2020年11月末でMNTSQ株式会社を退職し、2020年12月より株式会社みらい翻訳に入社しました。 MNTSQは自然言語処理技術を主力とした法務領域向けプロダクトを展開するスタートアップです。みらい翻訳は機械翻訳プロダクトを提供している会社で、どちらも自然言…

GPT-3の学習データはどのように作られたか

OpenAIが発表した言語モデルGPT-3はパフォーマンスの高さから各方面で注目されており、ついにはMicrosoftが学習済みモデルの利用を独占化しました。 私個人の所感としてこれまで学習済みモデルは無料公開するという流れを無視し、(アーキテクチャではなく)…

flairを使って最速でNLPのベースラインモデルを作る

自然言語処理に限らず、機械学習関連のプロジェクトではスタート時は、なるべく複雑なコーディングをせずにシンプルなベースラインモデルを低コストで作成し、そこからデータの傾向やタスクの複雑さを把握することが重要です。 ところが自然言語処理では前処…

BERTを量子化して高速かつ軽量にする

こんにちは、@vimmodeです。自然言語界隈ではBERTを始めとしたTransformerベースの手法の進化が目覚ましいですが、実運用されている話はあまり聞きません。 その理由としてモデルのサイズの大きさと推論速度の遅さに一定起因すると感じており、この記事はそ…

論文紹介: DIFFERENTIABLE REASONING OVER A VIRTUAL KNOWLEDGE BASE

最近ICLRの論文を読んでおり、以下の論文がとても興味深かったため簡単にまとめました。 openreview.net 最近自然言語処理領域であらゆるタスクをBERT+ファインチューニングで解くことが流行っており、実際高精度な推論結果を得られています。 ただBERT内の…

自然言語処理でBERTまでの流れを簡単に紹介

はじめまして@vimmodeです。普段はMNTSQというリーガルテックの会社で自然言語処理をしています。今回はBERTとBERTまでの流れを簡単に紹介します。 自然言語処理で今やデファクトスタンダードとなりつつであるBERT。登場当時はモデルの複雑さに伴う計算環境…