| 事前学習済みのTransformerを微調整して歌詞を生成 |
GPT-2モデルを微調整してお気に入りのアーティストのスタイルで歌詞を生成する方法 |
Aleksey Korshuk |
 |
| Tensorflow 2でT5をトレーニング |
Tensorflow 2を使用して任意のタスクに対してT5をトレーニングする方法。このノートブックはTensorflow 2を使用してSQUADで実装された質問と回答タスクを示しています。 |
Muhammad Harris |
 |
| TPUでT5をトレーニング |
TransformersとNlpを使用してSQUADでT5をトレーニングする方法 |
Suraj Patil |
 |
| 分類と多肢選択のためにT5を微調整 |
PyTorch Lightningを使用してテキスト対テキスト形式でT5を分類と多肢選択タスクに微調整する方法 |
Suraj Patil |
 |
| 新しいデータセットと言語でDialoGPTを微調整 |
DialoGPTモデルを新しいデータセットでオープンダイアログ会話用の微調整する方法 |
Nathan Cooper |
 |
| Reformerを使用した長いシーケンスモデリング |
Reformerを使用して500,000トークンまでのシーケンスをトレーニングする方法 |
Patrick von Platen |
 |
| 要約のためにBARTを微調整 |
Blurrを使用して要約のためにBARTを微調整する方法 |
Wayde Gilliam |
 |
| 事前学習済みのTransformerを微調整して誰かのツイートを生成 |
GPT-2モデルを微調整してお気に入りのTwitterアカウントのスタイルでツイートを生成する方法 |
Boris Dayma |
 |
| 🤗 Hugging FaceモデルをWeights & Biasesで最適化 |
Hugging FaceとWeights & Biasesの統合を示す完全なチュートリアル |
Boris Dayma |
 |
| Longformerの事前学習 |
既存の事前学習済みモデルの「長い」バージョンを構築する方法 |
Iz Beltagy |
 |
| QAタスクのためにLongformerを微調整 |
QAタスクのためにLongformerモデルを微調整する方法 |
Suraj Patil |
 |
| 🤗nlpを使用したモデルの評価 |
nlpを使用してTriviaQAでLongformerを評価する方法 |
Patrick von Platen |
 |
| 感情スパン抽出のためにT5を微調整 |
PyTorch Lightningを使用して感情スパン抽出のためにT5を微調整する方法 |
Lorenzo Ampil |
 |
| DistilBertをマルチクラス分類にファインチューニング |
PyTorchを使用してDistilBertをマルチクラス分類にファインチューニングする方法 |
Abhishek Kumar Mishra |
 |
| BERTをマルチラベル分類にファインチューニング |
PyTorchを使用してBERTをマルチラベル分類にファインチューニングする方法 |
Abhishek Kumar Mishra |
 |
| T5を要約にファインチューニング |
PyTorchを使用してT5を要約にファインチューニングし、WandBで実験をトラッキングする方法 |
Abhishek Kumar Mishra |
 |
| ダイナミックパディング/バケッティングを使用してTransformersのファインチューニングを高速化 |
ダイナミックパディング/バケッティングを使用してファインチューニングを2倍高速化する方法 |
Michael Benesty |
 |
| マスク言語モデリングのためのReformerの事前学習 |
双方向セルフアテンションレイヤーを備えたReformerモデルのトレーニング方法 |
Patrick von Platen |
 |
| Sci-BERTを拡張してファインチューニング |
AllenAIのCORDデータセットで事前学習済みのSciBERTモデルの語彙を拡張し、パイプライン化する方法 |
Tanmay Thakur |
 |
| Trainer APIを使用してBlenderBotSmallを要約のためにファインチューニング |
カスタムデータセットでBlenderBotSmallを要約のためにファインチューニングする方法、Trainer APIを使用 |
Tanmay Thakur |
 |
| ElectraをファインチューニングしてCaptum Integrated Gradientsで解釈 |
Electraを感情分析のためにファインチューニングし、Captum Integrated Gradientsで予測を解釈する方法 |
Eliza Szczechla |
 |
| Trainerクラスを使用して非英語のGPT-2モデルをファインチューニング |
Trainerクラスを使用して非英語のGPT-2モデルをファインチューニングする方法 |
Philipp Schmid |
 |
| DistilBERTモデルをマルチラベル分類タスクのためにファインチューニング |
DistilBERTモデルをマルチラベル分類タスクのためにファインチューニングする方法 |
Dhaval Taunk |
 |
| ALBERTを文ペア分類タスクのためにファインチューニング |
ALBERTモデルまたは他のBERTベースのモデルを文ペア分類タスクのためにファインチューニングする方法 |
Nadir El Manouzi |
 |
| RoBERTaを感情分析のためにファインチューニング |
RoBERTaモデルを感情分析のためにファインチューニングする方法 |
Dhaval Taunk |
 |
| 質問生成モデルの評価 |
seq2seqトランスフォーマーモデルによって生成された質問の回答の正確さを評価する方法 |
Pascal Zoleko |
 |
| DistilBERTとTensorflowを使用してテキストを分類 |
TensorFlowでテキスト分類のためにDistilBERTをファインチューニングする方法 |
Peter Bayerle |
 |
| CNN/Dailymailでのエンコーダーデコーダー要約にBERTを活用 |
google-bert/bert-base-uncased チェックポイントを使用してCNN/Dailymailの要約のために EncoderDecoderModel をウォームスタートする方法 |
Patrick von Platen |
 |
| BBC XSumでのエンコーダーデコーダー要約にRoBERTaを活用 |
FacebookAI/roberta-base チェックポイントを使用してBBC/XSumの要約のための共有 EncoderDecoderModel をウォームスタートする方法 |
Patrick von Platen |
 |
| TAPASをシーケンシャル質問応答(SQA)でファインチューニング |
シーケンシャル質問応答(SQA)データセットで tapas-base チェックポイントを使用して TapasForQuestionAnswering をファインチューニングする方法 |
Niels Rogge |
 |
| TabFactでTAPASを評価 |
tapas-base-finetuned-tabfact チェックポイントを使用してファインチューニングされた TapasForSequenceClassification を評価する方法、🤗 datasets と 🤗 transformers ライブラリを組み合わせて使用 |
Niels Rogge |
 |
| 翻訳のためのmBARTをファインチューニング |
Seq2SeqTrainerを使用してHindiからEnglishへの翻訳のためにmBARTをファインチューニングする方法 |
Vasudev Gupta |
 |
| FUNSD(フォーム理解データセット)でLayoutLMをファインチューニング |
スキャンされたドキュメントからの情報抽出のためにFUNSDデータセットで LayoutLMForTokenClassification をファインチューニングする方法 |
Niels Rogge |
 |
| DistilGPT2のファインチューニングとテキスト生成 |
DistilGPT2のファインチューニングとテキスト生成方法 |
Aakash Tripathi |
 |
| 最大8KトークンでのLEDのファインチューニング |
ロングレンジ要約のためのpubmedでLEDをファインチューニングする方法 |
Patrick von Platen |
 |
| ArxivでのLEDの評価 |
ロングレンジ要約のためのLEDの効果的な評価方法 |
Patrick von Platen |
 |
| RVL-CDIP(文書画像分類データセット)でのLayoutLMのファインチューニング |
スキャンされた文書の分類のためのRVL-CDIPデータセットでLayoutLMForSequenceClassificationをファインチューニングする方法 |
Niels Rogge |
 |
| Wav2Vec2 CTCデコーディングとGPT2の調整 |
言語モデルの調整を伴うCTCシーケンスのデコーディング方法 |
Eric Lam |
 |
| Trainerクラスを使用した2言語の要約用にBARTをファインチューニング |
トレーナークラスを使用して2つの言語での要約用にBARTをファインチューニングする方法 |
Eliza Szczechla |
 |
| PubMedデータセットでBigBirdの評価 |
Trivia QAの長いドキュメント質問応答でBigBirdの評価方法 |
Patrick von Platen |
 |
| Wav2Vec2を使用してビデオの字幕を作成する |
Wav2Vecでオーディオを転記して任意のビデオからYouTubeの字幕を作成する方法 |
Niklas Muennighoff |
 |
| PyTorch Lightningを使用したCIFAR-10でのVision Transformerのファインチューニング |
HuggingFace Transformers、Datasets、およびPyTorch Lightningを使用してCIFAR-10でVision Transformer(ViT)をファインチューニングする方法 |
Niels Rogge |
 |
| 🤗 Trainerを使用したCIFAR-10でのVision Transformerのファインチューニング |
HuggingFace Transformers、Datasets、および🤗 Trainerを使用してCIFAR-10でVision Transformer(ViT)をファインチューニングする方法 |
Niels Rogge |
 |
| Open Entity、エンティティタイピングデータセットでLUKEの評価 |
Open EntityデータセットでLukeForEntityClassificationの評価方法 |
Ikuya Yamada |
 |
| TACRED、関係抽出データセットでLUKEの評価 |
TACREDデータセットでLukeForEntityPairClassificationの評価方法 |
Ikuya Yamada |
 |
| CoNLL-2003、重要なNERベンチマークでLUKEの評価 |
CoNLL-2003データセットでLukeForEntitySpanClassificationの評価方法 |
Ikuya Yamada |
 |
| PubMedデータセットでBigBird-Pegasusの評価 |
PubMedデータセットでBigBirdPegasusForConditionalGenerationの評価方法 |
Vasudev Gupta |
 |
| Wav2Vec2を使用したスピーチエモーション分類 |
MEGAデータセットでの感情分類のための事前学習済みWav2Vec2モデルの利用方法 |
Mehrdad Farahani |
 |
| DETRを使用して画像内のオブジェクトを検出する |
トレーニング済みDetrForObjectDetectionモデルを使用して画像内のオブジェクトを検出し、注意を可視化する方法 |
Niels Rogge |
 |
| カスタムオブジェクト検出データセットでDETRをファインチューニングする |
カスタムオブジェクト検出データセットでDetrForObjectDetectionをファインチューニングする方法 |
Niels Rogge |
 |
| Named Entity RecognitionのためにT5をファインチューニング |
Named Entity RecognitionタスクでT5をファインチューニングする方法 |
Ogundepo Odunayo |
 |