【ビッグデータエンジニア】データレイクからデータウェアハウス/データマートまでのETLの開発・運用
職務内容 |
当社はテレビ朝日グループの一員として、秒間50,000リクエスト以上のテレビから送信される視聴データを収集・蓄積・整形まで一貫して行うビッグデータ基盤をSaasとしてテレビ朝日・系列局に提供し視聴データを活用した分析によってCM広告の営業支援に貢献しています。
ビッグデータ基盤はAWSをフル活用し日々進化するクラウドサービスをキャッチアップし最適な構成に随時進化し続けています。
今後もさらに安定してバージョンアップやスケーラビリティ・パフォーマンス改善を重ねるため、その開発の中核を担っていただくビッグデータエンジニアを募集しております。
ビッグデータ基盤のクラウドインフラの運用及び保守改善、視聴データを元としたデータレイクからデータウェアハウス / データマートまでのETLの開発・運用をお任せします。
受託ではなくご自身のアイディア・工夫を提案しプロダクトに反映していただける環境であり、単純に作るのではなく価値を提供することを重視していますので、裁量を持って様々な工程のご経験を積んでいただけます。
【具体的には】
・ビッグデータを処理するETLの開発
・急激なスパイクにも耐えうるインフラの運用・保守及び改善
・システム自動化の推進やパフォーマンス改善
・基盤としての運用改善(構成管理/CI/CDなど)
【案件例】
[ビッグデータ基盤への機能追加・改修]
・Pythonを利用したデータ収集及びETL処理の実装を行いワークフロー管理ツールAirflowで実行
[Tver社とのデータ連携]
・民放公式テレビ配信サービスであるTver社との取り組みを実現すべくTver内での視聴データの取り込み分析に活用
*上記はほんの1例に過ぎずスケールの大きい様々な開発に携わっていただけます。
|
必須要件 |
・Pythonを利用した開発経験(目安:実務経験3年以上)
・SQLを使ったDBプログラミングの開発経験
・AWS等のパブリッククラウドを利用したサービス開発・運用経験
・Gitなどのソースコード管理ツールの使用経験
|
歓迎要件 |
・AirflowやDigDag・Azkabanなどのワークフロー管理ツールの利用経験
・Git、Ansible、Jenkins、Chef、MackerelなどのDevOps系の知識や経験
・高負荷対策・パフォーマンスチューニングに関する知識や経験
・Docker、k8sなどのコンテナ環境での開発経験
・DMPサービスなどのプロダクト開発経験
・社内・受託問わず分析基盤の構築・運用経験
|
求める人物像 |
・スケールの大きなビッグデータ開発経験を積みたい方
・ビッグデータやTVコンテンツに興味がある方
・新しい技術に関心を持ち、技術に対して積極的に継続して取り組むことが出来る方
・エンタメ企業で働きたい、テレビが好きな方
|
仕事の魅力 |
他では中々経験できない、テレビ局の高アクセス/高負荷に耐えうるビッグデータシステムのITサービスマネジメントの開発にチャレンジすることが可能です。
また、チームとしては失敗を恐れずに新しい手法・技術を積極的に取り入れてアイデアを実現しグロースさせるスタンスですので、様々なご経験を積んでいただける環境となっております。
【キャリアイメージ】
・アドテクやクラウド、データ収集/分析関連の最新技術を学び、経験することができる。
・テレビ局特有の高アクセス環境で技術的なチャレンジができる。
|
雇用形態 |
正社員
|
想定年収 |
経験・能力を考慮の上、弊社規程により給与を決定致します。
|
勤務地 |
テレビ朝日メディアプレックス 本社
*相談の上テレワーク(在宅)勤務可能(打合せ等で出社することもございます。)
|
休日・休暇 |
・完全週休2日制
・国民の祝日
・労働祭(5月1日)
・特別協定休日(11月1日)
・夏季休暇
・年末年始休暇
・年次有給休暇
・その他特別休暇(産前産後、育児、介護 他)
|
福利厚生 |
・各種社会保険完備(雇用・労災・健康・厚生年金)
・家族手当、残業手当、テレワーク手当、退職金制度(*正社員登用後)、資格取得手当、育児・介護、育児サポート制度、傷病保険 他
■Point : AWS資格取得費用負担や資格取得時の報奨金有。AWS以外にも様々な資格取得を支援しています!■
|
勤務時間 |
11:00~19:00(所定労働時間7時間、休憩時間1時間)
*フレックスタイム制度あり
|
TECHNOLOGY-SOLUTIONテクノロジーソリューション事業本部