RECRUIT採用情報

TECHNOLOGY-SOLUTIONテクノロジーソリューション事業本部

【ビッグデータエンジニア】データレイクからデータウェアハウス/データマートまでのETLの開発・運用

職務内容

当社はテレビ朝日グループの一員として、秒間50,000リクエスト以上のテレビから送信される視聴データを収集・蓄積・整形まで一貫して行うビッグデータ基盤をSaasとしてテレビ朝日・系列局に提供し視聴データを活用した分析によってCM広告の営業支援に貢献しています。
ビッグデータ基盤はAWSをフル活用し日々進化するクラウドサービスをキャッチアップし最適な構成に随時進化し続けています。
今後もさらに安定してバージョンアップやスケーラビリティ・パフォーマンス改善を重ねるため、その開発の中核を担っていただくビッグデータエンジニアを募集しております。

ビッグデータ基盤のクラウドインフラの運用及び保守改善、視聴データを元としたデータレイクからデータウェアハウス / データマートまでのETLの開発・運用をお任せします。
受託ではなくご自身のアイディア・工夫を提案しプロダクトに反映していただける環境であり、単純に作るのではなく価値を提供することを重視していますので、裁量を持って様々な工程のご経験を積んでいただけます。

【具体的には】
・ビッグデータを処理するETLの開発
・急激なスパイクにも耐えうるインフラの運用・保守及び改善
・システム自動化の推進やパフォーマンス改善
・基盤としての運用改善(構成管理/CI/CDなど)

【案件例】
[ビッグデータ基盤への機能追加・改修]
・Pythonを利用したデータ収集及びETL処理の実装を行いワークフロー管理ツールAirflowで実行
[Tver社とのデータ連携]
・民放公式テレビ配信サービスであるTver社との取り組みを実現すべくTver内での視聴データの取り込み分析に活用
*上記はほんの1例に過ぎずスケールの大きい様々な開発に携わっていただけます。

必須要件

・Pythonを利用した開発経験(目安:実務経験3年以上)
・SQLを使ったDBプログラミングの開発経験
・AWS等のパブリッククラウドを利用したサービス開発・運用経験
・Gitなどのソースコード管理ツールの使用経験

歓迎要件

・AirflowやDigDag・Azkabanなどのワークフロー管理ツールの利用経験
・Git、Ansible、Jenkins、Chef、MackerelなどのDevOps系の知識や経験
・高負荷対策・パフォーマンスチューニングに関する知識や経験
・Docker、k8sなどのコンテナ環境での開発経験
・DMPサービスなどのプロダクト開発経験
・社内・受託問わず分析基盤の構築・運用経験

求める人物像

・スケールの大きなビッグデータ開発経験を積みたい方
・ビッグデータやTVコンテンツに興味がある方
・新しい技術に関心を持ち、技術に対して積極的に継続して取り組むことが出来る方
・エンタメ企業で働きたい、テレビが好きな方

仕事の魅力

他では中々経験できない、テレビ局の高アクセス/高負荷に耐えうるビッグデータシステムのITサービスマネジメントの開発にチャレンジすることが可能です。
また、チームとしては失敗を恐れずに新しい手法・技術を積極的に取り入れてアイデアを実現しグロースさせるスタンスですので、様々なご経験を積んでいただける環境となっております。

【キャリアイメージ】
・アドテクやクラウド、データ収集/分析関連の最新技術を学び、経験することができる。
・テレビ局特有の高アクセス環境で技術的なチャレンジができる。

雇用形態

正社員

想定年収

経験・能力を考慮の上、弊社規程により給与を決定致します。

勤務地

テレビ朝日メディアプレックス 本社
*相談の上テレワーク(在宅)勤務可能(打合せ等で出社することもございます。)

休日・休暇

・完全週休2日制
・国民の祝日
・労働祭(5月1日)
・特別協定休日(11月1日)
・夏季休暇
・年末年始休暇
・年次有給休暇
・その他特別休暇(産前産後、育児、介護 他)

福利厚生

・各種社会保険完備(雇用・労災・健康・厚生年金)
・家族手当、残業手当、テレワーク手当、退職金制度(*正社員登用後)、資格取得手当、育児・介護、育児サポート制度、傷病保険 他

■Point : AWS資格取得費用負担や資格取得時の報奨金有。AWS以外にも様々な資格取得を支援しています!■

勤務時間

11:00~19:00(所定労働時間7時間、休憩時間1時間)
*フレックスタイム制度あり

INTERVIEWこの業務のスタッフインタビュー

現在スタッフインタビューはありません。