huggingfaceのtransformersを使って、日本語の文章変換をしてみた

huggingfaceのtransformersが日本語の事前学習モデルを追加してくれました。

そのおかげで日本語のbertを簡単に試す出来るようになりました。

今回は、colaboratory上で日本語のbertを使って、元の文章を別の文章(単語を入れ替える)にしてみます。

 

Bertを使って、文章の一部を別の文章に置き換える手順

今回は、colaboratoryで、日本語のBertを使って、文章の一部を別の文章にしてみます!

bertは、ライブラリーをインストールすればjupyter notebookでも動きますが、ローカルPCへのライブラリーインストールは面倒です。

今回は、ネット上で、より手軽に試せるcolaboratoryで動くようにしました。

日本語bertを使って単語の予測をするまでの流れ

  1. mecabなどの形態素ライブラリーをインストールする
  2. pythonからmecabを呼び出せるようにmecab-python3をインストールする
  3. fugashi,ipadicのインストール
  4. transformersのインストール
  5. 日本語の事前学習モデルを読み込む
  6. tokenizerを使って文字列をベクトル化する
  7. 学習済みモデルを使って予測(Predict)
  8. ベクトル化されたものを元の文字列に戻す
  9. 予測された単語を得ることが出来る

 

日本語のモデル情報

https://huggingface.co/cl-tohoku/bert-base-japanese-whole-word-masking

 

詳細な説明は、実際のコードを使いながら解説!

ここからは、実装例を示します。

 

 

まとめ

以上、huggingfaceのtransformersを使った日本語のBertの使い方例でした。

入会するか悩むのは無料カウンセリング後で十分間に合います!無料カウンセリングは、スクール名のリンクから申し込みできます。

>>より詳しく5つのスクールについて知りたい方は、以下をクリック!

 

最新情報をチェックしよう!