フレックス高単価長期自社サービス新規立ち上げBtoB20代活躍中30代活躍中
職務内容
HRテック領域にて、データを活用した改善施策の企画、ユーザー行動分析、BIツールを使用したダッシュボード構築などをご担当いただきます。
データ活用の部分では、RAGやLLMなどの技術も活用しているプロダクトです。
データ分析基盤は AWS で構築されており、BIツールには Tableau を使用しています。
必須スキル
- Python / SQL を使用したデータ分析の経験
- BIツールのダッシュボード構築経験
- toB向けプロダクトにおけるデータ活用、分析経験
フレックス高単価長期自社サービスBtoB20代活躍中
職務内容
人事労務系サービスの開発にデータエンジニアとしてご参画いただきます。
データ収集・加工のような業務だけではなく、データ収集基盤の開発やデータ活用を推進するための課題発見、技術選定などもご担当いただきます。
開発手法にはスクラムを採用しており、2週間スプリントでの開発を行っています。
必須スキル
- Pythonを使用したデータ分析経験
- DWHの構築・運用経験
- Gitを用いたチーム開発経験
- クラウド環境での開発経験
職務内容
リユース企業向けの データを抽出・加工する案件です。
具体的な業務は以下です。
・PythonでのWebスクレイピング
・データクレンジング・集計・検証
・SQLでのデータ抽出
・BIツールによるデータの可視化
必須スキル
- SQL の経験
- データクレンジング・集計・検証経験
- データパイプラインの設計
職務内容
ユーザー行動データの分析案件です。
サービス上のユーザー行動分析から、テスト設計や効果測定、ダッシュボード構築などを行っていただきます。
施策へのデータ面からのアドバイスやデータ提供を行っていただける方を募集しています。
必須スキル
- データアナリストとしての実務経験
- Python / SQLによるデータ加工、データ可視化経験
- BIツールを使用したダッシュボード構築経験
職務内容
新規でデータ分析基盤を構築するプロジェクトにデータエンジニアとして参画していただきます。
具体的な業務内容は下記を想 定しています。
・データ分析基盤の構築・運用
・データ分析基盤チームのマネジメント
・データ利活用推進のための技術調査
必須スキル
- SQL、Pythonを使用したデータ分析経験
- データ分析基盤の設計・構築経験
職務内容
急成長中企業における、グループ全体のデータ利活用を支える分析基盤の構築プロジェクトにご参画いただきます。
GCP(BigQuery)ベース構成のもと、プロダクトデータ・業務データなどを横断的に取り扱い、統一的なデータモデル設計とELTパイプラインの構築を担っていただきます。
具体的には以下の業務を想定しています
・GCP環境でのデータウェアハウス設計・実装
・ELTパイプラインの構築
・dbt によるデータモデリング
・Apache Airflowによるワークフロー管理
・データプロダクトの品質担保(データテスト、監視、リネージ管理)
・Looker 向けデータマートの最適化とセキュリティ設計
プロダクト志向のデータエンジニアが集う、非常にレベルの高い現場です。
必須スキル
- BigQuery を使用したDWHを用いた分析基盤構築の経験(3年以上)
- Python でのETL/ELT開発経験
- SQLチューニングやテーブル設計におけるパフォーマンス最適化の経験
- Airflowなどのワークフロー管理ツールの利用経験
職務内容
エンド企業にて、事業KPI可視化のためのTableauダッシュボード設計・構築を担当いただきます。
既存のデータウェアハウス(BigQuery)と連携し、経営陣 が日次・週次で意思決定できるように各種メトリクスの定義や粒度を整備していきます。
SQL でのデータ抽出、Tableau でのダッシュボード設計・構築など視覚的な工夫も求められる業務です。
必須スキル
- Tableau での業務ダッシュボード構築経験
- BigQuery や Redshift 上での SQL によるデータ加工経験
職務内容
大手金融系企業にて、AWS を活用したデータ分析基盤構築プロジェクトに参画いただきます。
S3 ベースのストレージ設計から Glue によるETL処理の構築、Athena や Redshift でのクエリ最適化まで一貫してご担当いただきます。
セキュリティ要件が高いため、IAM設計や監査ログ設計などにも関与いただくポジションです。
業務部門や他ベンダーとの調整も発生するため、自走力やドキュメント力も重視されます。
必須スキル
- AWS を用いた分析基盤構築経験
- Python または PySpark でのETL処理経験
- IAMやデータセキュリティに関する理解
職務内容
グローバルに展開するSaaS企業の分析基盤の刷新プロジェクトにて、Snowflake と dbt を用いたデータモデリングをご担当いただきます。
複数の業務SaaS(Salesforce、Hubspotなど)との連携を行い、マーケティング・営業・CS部門が共通で参照できるドメイン横断のデータマートを整備します。
ETL処理の標準化、モデリングルールの整備、CI/CDパイプラインの構築まで幅広く裁量を持って推進いただけるポジションです。
必須スキル
- Snowflake、Redshift、BigQuery などを使用したDWHの設計・構築経験
- dbt を用いたデータ変換処理の設計・運用経験
- Git を用いたチーム開発経験