AWS Certified Big Data - Specialty に合格しました
学生の頃は全く資格には興味がなかったのですが、社会人になってからは単位のような目にわかるものがなくなったせいか資格をよく取るようになりました。独学では偏りがでてしまうところを俯瞰的に、また世の中的なベストプラクティスを効率的に知ることができるところが資格試験のいいところかなと思います。
この度 Big Data に合格してAWSの資格が7つになりました。
本記事では AWS Certified Big Data - Specialty について記載しますので、AWS認定の全体的な説明についてはこちらを参照してください。
前提知識
以下の状態で今回 Big Data 試験の対策を開始しました。
AWS Certified Solutions Architect - Professional を取得済みで普段からAWSを触っていますが、あまりビッグデータ関連は触っていません
2年ほど前に Big Data on AWS という有料のクラスルーム研修を受けました
ビッグデータを支える技術 を読んだことがある
Cognitive Class (旧BigData University) というサイトで以下のHadoop関連コースを受講したことがあります
- Big Data 101
- Python for Data Science
- Spark Fundamentals I
- Hadoop 101
- Scala 101
- MapReduce and YARN
- Apache Pig 101
- Simplifying data pipelines with Apache Kafka
- Moving Data into Hadoop
- Controlling Hadoop Jobs using Oozie
- Developing Distributed Applications Using ZooKeeper
- Solr 101
- NoSQL and DBaaS 101
- Accessing Hadoop Data Using Hive
- SQL Access for Hadoop
- Using HBase for Real-time Access to your Big Data
- Spark Fundamentals II
- Analyzing Big Data with a spreadsheet UI
- Spark Overview for Scala Analytics
- Spark MLlib
- Exploring Spark's GraphX
- Analyzing Big Data in R using Apache Spark
試験対策
Linux Academy の AWS Certified Big Data - Specialty Certification の Practice Exam を3周やりました。試験の情報も少なくどこを深掘りしたらいいかもわからなかったのでこれくらいにしました。
結果
これだけで無事合格しましたが、結構ギリギリだったと思います。他の方がブログに書いているのと同じくCollectionが一番難しく、次点でStorageの点数が低かったです。
反省点
以下を意識してもう少し勉強していたほうが良かったかなと思いました。
- 既存システムを考慮してAWSへどう移行するかなど、実際と近いケースを想定してアーキテクチャを検討する
- データの特性によって、Data StreamsやFirehoseでS3へ格納するのか、またはRedShiftやDynamoDBに入れたほうがいいのかを理解する
また以下の Qwiklabs のコースをやっておいたらもう少し点が上がっていたのかなという気がします。
Tips
現在日本語でも提供されていますが、英語だと強調されているニュアンスが失われたり、意味がわからないところが1割以下くらいですがあります。適宜英語に切り替えて回答することをおすすめします。 私の場合は1週目が1問を1.5分くらいで回答して70分余ったため、2周目で適宜英語に切り替えたりしつつ回答しました。
試験自体が2年ほど前に出たこともあり、当時のAWSの機能を想定して答える必要がある箇所があるかも知れません。試験が更新されたら Glue の問題が結構入ってくるのではないでしょうか。反対に Data Pipeline は減るのかなと思います。
関連リンク
受験前に以下のブログも参考にさせていただきました。