AWS認定資格 WEB問題集&徹底解説
機械学習エンジニア–アソシエイト
解説
正解はAです。Amazon SageMaker Pipelinesは、データ前処理からモデルトレーニング、ハイパーパラメータチューニング、そしてデプロイまで、機械学習ワークフロー全体をエンドツーエンドでオーケストレーションするための専用サービスです。コードベースでMLパイプラインを定義できるため、再現性、自動化、スケーラビリティ、信頼性を実現し、運用オーバーヘッドを最小限に抑えながら、モデルの定期的な再トレーニングと更新を容易にします。これは問題文のすべての要件に最も合致しています。
選択肢 B:AWS GlueとAmazon SageMakerを組み合わせることは適切ですが、モデルのデプロイを手動でAmazon EC2インスタンスに行うことは、自動化と運用オーバーヘッド最小化という要件に反します。継続的な再トレーニングとデプロイのプロセスにおいて、手動での作業は非効率的であり、エラーのリスクを高めます。
選択肢 C:すべてのMLワークフローステップをAmazon EC2上のカスタムスクリプトで個別に実行する方法は、自動化、スケーラビリティ、信頼性、管理の容易さ、そして運用オーバーヘッドの最小化という要件を満たしません。手動でのスクリプト管理やインフラ管理の負担が大きく、非効率的です。
選択肢 D:AWS Step Functionsは汎用的なオーケストレーションツールとして強力ですが、MLワークフローに特化したAmazon SageMaker Pipelinesと比較すると、ML固有の複雑なステップ(例:ハイパーパラメータチューニングジョブ、モデルバージョン管理、リネージ追跡)を統合的に、かつ効率的に扱うための機能がSageMaker Pipelinesほど組み込まれていません。各サービスを個別に呼び出すことで複雑性が増し、構築と管理のオーバーヘッドが大きくなる可能性があります。SageMaker PipelinesはMLワークフローの可視化や成果物の追跡機能も提供し、Step Functionsで同等の機能を実現するにはより多くのカスタム開発が必要です。
Amazon SageMaker
Amazon Simple Storage Service (Amazon S3)
AWS Glue
AWS Lambda
AWS Step Functions
選択肢 B:AWS GlueとAmazon SageMakerを組み合わせることは適切ですが、モデルのデプロイを手動でAmazon EC2インスタンスに行うことは、自動化と運用オーバーヘッド最小化という要件に反します。継続的な再トレーニングとデプロイのプロセスにおいて、手動での作業は非効率的であり、エラーのリスクを高めます。
選択肢 C:すべてのMLワークフローステップをAmazon EC2上のカスタムスクリプトで個別に実行する方法は、自動化、スケーラビリティ、信頼性、管理の容易さ、そして運用オーバーヘッドの最小化という要件を満たしません。手動でのスクリプト管理やインフラ管理の負担が大きく、非効率的です。
選択肢 D:AWS Step Functionsは汎用的なオーケストレーションツールとして強力ですが、MLワークフローに特化したAmazon SageMaker Pipelinesと比較すると、ML固有の複雑なステップ(例:ハイパーパラメータチューニングジョブ、モデルバージョン管理、リネージ追跡)を統合的に、かつ効率的に扱うための機能がSageMaker Pipelinesほど組み込まれていません。各サービスを個別に呼び出すことで複雑性が増し、構築と管理のオーバーヘッドが大きくなる可能性があります。SageMaker PipelinesはMLワークフローの可視化や成果物の追跡機能も提供し、Step Functionsで同等の機能を実現するにはより多くのカスタム開発が必要です。
関連サービスの解説
Amazon EC2Amazon SageMaker
Amazon Simple Storage Service (Amazon S3)
AWS Glue
AWS Lambda
AWS Step Functions
+ 質問 / コメント
解答・解説に疑問がある場合や、よりよい解説がある場合など、お気軽にコメントください。ただし、短文コメントは表示されません。また、中傷などコメントの内容によっては、会員機能を停止させて頂きます。教え学び合える場になれば嬉しいです。(コメント投稿にはログインが必要です)
正答率 %
No.11 解説
ある製造業企業において、機械学習エンジニアは生産ラインの稼働状況を予測するシステム構築を任されています。このシステムは、センサーデータの前処理、異常検知モデルのトレーニング、モデルのハイパーパラメータ調整、そして本番環境へのデプロイまでを網羅するエンドツーエンドのMLワークフローとして構築される必要があります。さらに、新たなセンサーデータが継続的に発生するため、運用開始後も自動的にモデルを定期的に再トレーニングし、更新する機能が求められます。このワークフローは、運用のオーバーヘッドを最小限に抑えつつ、高いスケーラビリティと信頼性を確保し、管理しやすい状態を維持することが重要です。この要件を満たすMLワークフローのオーケストレーションにおいて、最も効果的なAWSソリューションはどれですか。
- エンドツーエンドの機械学習ワークフロー全体をAmazon SageMaker Pipelinesで構築し、データ処理、モデルトレーニング、ハイパーパラメータチューニング、モデルデプロイの各ステージを統合的にオーケストレーションする。
- AWS Glueを利用してデータ前処理を行い、Amazon SageMakerでモデルをトレーニングおよびハイパーパラメータ調整を実施した後、結果を手動でAmazon EC2インスタンスにデプロイして推論を実行する。
- すべてのMLワークフローステップをAmazon EC2上で個別にカスタムスクリプトとして実行し、Amazon S3に中間データを保存する。モデルのデプロイにはAmazon SageMaker Endpointを使用する。
- AWS Step Functionsを用いてワークフローの各ステップを定義し、AWS Lambdaでデータ前処理、Amazon SageMakerでモデルのトレーニングとデプロイを行うためのジョブを個別に呼び出す。