学生番号
21050010
学科
スーパークリエーター科
AIクリエーター専攻
学年
3年
卒業年度
2025年3月卒業予定
メッセージ
3年に上がって、人工知能(AI)についてより深い学習をしました。
機械学習と違って、深層学習はニューラルネットワークを多層化にしたものです。ここで、最も大切になってくる学習モデルがLLM(大規模言語モデル)であり、大量のテキストデータを使ってトレーニングを行います。テキストデータのトレーニングを行う処理は自然言語処理と呼びます。自然言語処理を利用して、ソフトウェアとして提供されているサービスは既に多くの人が知られているChatGPTになります。GoogleのBERTやNVDIAのNEMO LLMも含まれます。
私の発表では、GPT-3.5のファインチューニング性能について語りました。ファインチューニングされた学習モデルは普段の言語処理モデルより正解率が高く、結果もより安定しているため、ソフトウェアサービスとして行うべきと考えられます。現状、まだ公開されていないのですが、今後GPT-4のファインチューニング性能について期待しています。
21050010
学科
スーパークリエーター科
AIクリエーター専攻
学年
3年
卒業年度
2025年3月卒業予定
メッセージ
3年に上がって、人工知能(AI)についてより深い学習をしました。
機械学習と違って、深層学習はニューラルネットワークを多層化にしたものです。ここで、最も大切になってくる学習モデルがLLM(大規模言語モデル)であり、大量のテキストデータを使ってトレーニングを行います。テキストデータのトレーニングを行う処理は自然言語処理と呼びます。自然言語処理を利用して、ソフトウェアとして提供されているサービスは既に多くの人が知られているChatGPTになります。GoogleのBERTやNVDIAのNEMO LLMも含まれます。
私の発表では、GPT-3.5のファインチューニング性能について語りました。ファインチューニングされた学習モデルは普段の言語処理モデルより正解率が高く、結果もより安定しているため、ソフトウェアサービスとして行うべきと考えられます。現状、まだ公開されていないのですが、今後GPT-4のファインチューニング性能について期待しています。
学生へのメッセージ、スカウトなどは「お問い合わせ」からご連絡ください。