ディープラーニング前期発表

学生番号
21050010

学科
スーパークリエーター科
AIクリエーター専攻

学年
3年

卒業年度
2025年3月卒業予定

メッセージ
3年に上がって、人工知能(AI)についてより深い学習をしました。
機械学習と違って、深層学習はニューラルネットワークを多層化にしたものです。ここで、最も大切になってくる学習モデルがLLM(大規模言語モデル)であり、大量のテキストデータを使ってトレーニングを行います。テキストデータのトレーニングを行う処理は自然言語処理と呼びます。自然言語処理を利用して、ソフトウェアとして提供されているサービスは既に多くの人が知られているChatGPTになります。GoogleのBERTやNVDIAのNEMO LLMも含まれます。


私の発表では、GPT-3.5のファインチューニング性能について語りました。ファインチューニングされた学習モデルは普段の言語処理モデルより正解率が高く、結果もより安定しているため、ソフトウェアサービスとして行うべきと考えられます。現状、まだ公開されていないのですが、今後GPT-4のファインチューニング性能について期待しています。


学生へのメッセージ、スカウトなどは「お問い合わせ」からご連絡ください。

  • ディープラーニング前期発表.pdf