AWS認定資格 WEB問題集&徹底解説
AIプラクティショナー(AWS Certified AI Practitioner)
解説
正解はBです。ReLUは勾配消失問題を軽減するために広く使用されている活性化関数です。
Aのシグモイド関数やDのタンジェントハイパボリック関数は、勾配消失を引き起こしやすいです。
Cのソフトマックス関数は主に分類タスクで使用され、勾配消失の解決にはつながりません。
Aのシグモイド関数やDのタンジェントハイパボリック関数は、勾配消失を引き起こしやすいです。
Cのソフトマックス関数は主に分類タスクで使用され、勾配消失の解決にはつながりません。
関連サービスの解説
+ 質問 / コメント
解答・解説に疑問がある場合や、よりよい解説がある場合など、お気軽にコメントください。ただし、短文コメントは表示されません。また、中傷などコメントの内容によっては、会員機能を停止させて頂きます。教え学び合える場になれば嬉しいです。(コメント投稿にはログインが必要です)
正答率 60%
No.32 解説
ディープラーニングモデルのトレーニング中、勾配消失問題は学習を停滞させる一因となります。この問題を軽減するために設計された活性化関数はどれですか?
- シグモイド関数
- ReLU(Rectified Linear Unit)
- ソフトマックス関数
- タンジェントハイパボリック関数