・DeepLearning.AIが、初心者向けのビジョンモデルのプロンプトエンジニアリングに関する無料の短期コースを提供開始。
・コースでは、画像生成、画像セグメンテーション、物体検出、インペインティング、ファインチューニングによるパーソナライズなどの技術を学習可能。
・担当講師は3名で、基本的なPythonの知識があると良いが必須ではなく、現在はDeepLearning.AIの学習プラットフォームβ版の期間中のため無料でアクセス可能。

画像生成や物体検出などの技術を学べる初心者向けの短期コース

DeepLearning.AIは、ビジョンモデルのプロンプトエンジニアリングに関する新しい短期コースの提供を開始しました。このコースでは、Metaの汎用画像セグメンテーションモデルSegment Anything Model (SAM)や、ゼロショット物体検出モデルOWL-ViT、広く使われている拡散モデルStable Diffusion 2.0などの様々なビジョンモデルのプロンプト方法を学ぶことができます。
コースの内容は以下の通りです。

技術内容
画像生成テキストによるプロンプトや、strength、guidance scale、inference stepなどのハイパーパラメータ調整方法
画像セグメンテーション座標指定によるプロンプトや、バウンディングボックスによるプロンプト方法
物体検出自然言語によるプロンプトで、画像内の特定物体を囲むバウンディングボックスを生成する方法
インペインティング上記の技術を組み合わせ、画像内のオブジェクトを生成した画像で置き換える方法
ファインチューニングによるパーソナライズDreamBoothと呼ばれるファインチューニング手法を用いて、提供した人物や場所の画像をもとにカスタム画像を生成する方法
実験の反復とトラッキングプロンプトとハイパーパラメータのチューニングは反復的なプロセスであり、実験のトラッキングが最適な組み合わせの特定に役立つ。コースではそのために実験トラッキングライブラリのCometを使用する

担当講師はComet社のMachine Learning EngineerであるAbby Morgan氏、Head of ProductのJacques Verré氏、Machine Learning EngineerのCaleb Kaiser氏の3名です。
このコースは初心者向けの実践的な内容となっており、基本的なPythonの知識があると良いとのことですが、必須ではないそうです。現在、DeepLearning.AIの学習プラットフォームβ版の期間中は、コースへのアクセスが無料で提供されているとのことです。