職務内容
SaaSプロダクトにおけるデータパイプラインの設計、構築~運用・保守をご担当いただきます。
具体的には、複数のデータソースとの連携処理の実装やデータ品質管理プロセスの設計と実装、データパイプライン監視システムの構築など をご担当いただきます。
必須スキル
- Python を用いたデータ処理の経験
- Git および Github もしくは Gitlab を利用した開発経験
- GCP を用いたDWHまたはデータパイプラインの構築経験
- SQL を用いたデータ操作、分析の経験
職務内容
急成長中企業における、グループ全体のデータ利活用を支える分析基盤の構築プロジェクトにご参画いただきます。
GCP(BigQuery)ベース構成のもと、プロダクトデータ・業務データなどを横断的に取り扱い、統一的なデータモデル設計とELTパイプラインの構築を担っていただきます。
具体的には以下の業務を想定しています
・GCP環境でのデータウェアハウス設計・実装
・ELTパイプラインの構築
・dbt によるデータモデリング
・Apache Airflowによるワークフロー管理
・データプロダクトの品質担保(データテスト、監視、リネージ管理)
・Looker 向けデータマートの最適化とセキュリティ設計
プロダクト志向のデータエンジニアが集う、非常にレベルの高い現場です。
必須スキル
- BigQuery を使用したDWHを用いた分析基盤構築の経験(3年以上)
- Python でのETL/ELT開発経験
- SQLチューニングやテーブル設計におけるパフォーマンス最適化の経験
- Airflowなどのワークフロー管理ツールの利用経験
職務内容
大手EC企業のマーケティング部門における、BIダッシュボードの構築支援を行っていただきます。
BigQuery をデータ基盤として、Looker Studio でのKPI可視化・レポート設計が主な業務です。
売上・顧客・広告指標など、複数データソースの統合や前処理を行い、マーケターが自走できる環境整備を目指します。
担当業務としては、業務要件のヒアリングからダッシュボード設計、クエリチューニング、定期レポートの自動化支援など、幅広くご対応いただきます。
必須スキル
- BigQuery、SQLを用いたデータ集計・加工経験
- Looker Studio でのレポート作成経験
- データ可視化における業務要件の整理経験
職務内容
物流サービスのインフラ構築・運用案件です。
GCPを使用したインフラ構築およびセキュリティ/ コストを意識した運用をご担当いただきます。
必須スキル
職務内容
グローバルに展開するSaaS企業の分析基盤の刷新プロジェクトにて、Snowflake と dbt を用いたデータモデリングをご担当いただきます。
複数の業務SaaS(Salesforce、Hubspotなど)との連携を行い、マーケティング・営業・CS部門が共通で参照できるドメイン横断のデータマートを整備します。
ETL処理の標準化、モデリングルールの整備、CI/CDパイプラインの構築まで幅広く裁量を持って推進いただけるポジションです。
必須スキル
- Snowflake、Redshift、BigQuery などを使用したDWHの設計・構築経験
- dbt を用いたデータ変換処理の設計・運用経験
- Git を用いたチーム開発経験