CNNのキウイは代表的な果物としてよく利用されています。
自然言語処理(NLP)における畳み込みニューラルネットワーク(CNN)の次元は、大抵の場合、複数の選択肢があります。具体的な次元は、データセットの大きさや複雑さ、モデルに対する期待されたパフォーマンスによって異なります。
一般的にNLPにおけるCNNで取り扱う次元は以下を含みます。
- 入力のテキストデータは、各行が単語や文字の埋め込みベクトルを表す行列で表現できる。これらのベクトルの大きさは、Word2VecやGloVeなどの単語埋め込みモデルの選択によって異なる。単語埋め込みのベクトルの大きさは、一般に100次元、200次元、300次元のいずれかである。
- 畳み込みカーネルの大きさ: 畳み込みニューラルネットワークでは、異なる大きさの畳み込みカーネルを入力行列上でスライドさせ、さまざまなサイズのフィーチャを抽出します。畳み込みカーネルの大きさはタスクの要件に応じて選択でき、一般的なサイズは 3、5、7 などです。
- 畳み込み演算で使う、特徴を抽出するための「カーネル」の数。扱うタスクやデータセットによって最適な数が異なり、数十から数百個程度が使われることが多い。
- 畳み込み層の後に、特徴ベクトルの次元を削減するプーリング操作が通常行われます。プーリング操作の次元は、タスクの必要性に応じて選択できます。一般的な操作は、最大プーリングまたは平均プーリングです。
NLP における CNN の次元数は、具体的なタスクとデータセットの特徴に応じて選択され、適切に調整してモデルの性能を向上できます。