職務内容
急成長中企業における、グループ全体のデータ利活用を支える分析基盤の構築プロジェクトにご参画いただきます。
GCP(BigQuery)ベース構成のもと、プロダクトデータ・業務データなどを横断的に取り扱い、統一的なデータモデル設計とELTパイプラインの構築を担っていただきます。
具体的には以下の業務を想定しています
・GCP環境でのデータウェアハウス設計・実装
・ELTパイプラインの構築
・dbt によるデータモデリング
・Apache Airflowによるワークフロー管理
・データプロダクトの品質担保(データテスト、監視、リネージ管理)
・Looker 向けデータマートの最適化とセキュリティ設計
プロダクト志向のデータエンジニアが集う、非常にレベルの高い現場です。
必須スキル
- BigQuery を使用したDWHを用いた分析基盤構築の経験(3年以上)
- Python でのETL/ELT開発経験
- SQLチューニングやテーブル設計におけるパフォーマンス最適化の経験
- Airflowなどのワークフロー管理ツールの利用経験
職務内容
大手金融系企業にて、AWS を活用したデータ分析基盤構築プロジェクトに参画いただきます。
S3 ベースのストレージ設計から Glue によるETL処理の構築、Athena や Redshift でのクエリ最適化まで一貫してご担当いただきます。
セキュリティ要件が高いため、IAM設計や監査ログ設計などにも関与いただくポジションです。
業務部門や他ベンダーとの調整も発生するため、自走力やドキュメント力も重視されます。
必須スキル
- AWS を用いた分析基盤構築経験
- Python または PySpark でのETL処理経験
- IAMやデータセキュリティに関する理解
職務内容
グローバルに展開するSaaS企業の分析基盤の刷新プロジェクトにて、Snowflake と dbt を用いたデータモデリングをご担当いただきます。
複数の業務SaaS(Salesforce、Hubspotなど)との連携を行い、マーケティング・営業・CS部門が共通で参照できるドメイン横断のデータマートを整備します。
ETL処理の標準化、モデリングルールの整備、CI/CDパイプラインの構築まで幅広く裁量を持って推進いただけるポジションです。
必須スキル
- Snowflake、Redshift、BigQuery などを使用したDWHの設計・構築経験
- dbt を用いたデータ変換処理の設計・運用経験
- Git を用いたチーム開発経験
高単価長期自社サービスBtoB20代活躍中30代活躍中
職務内容
生成AIを活用したSaaSプロダクトの開発にフルスタックエンジニアとしてご参画いただきます。
具体的には、LLMを活用した新機能開発、API設計・実装、Webアプリケーションのフロントエンド開発などを幅広くご担当いただく想定です。
プロダクトのコア機能の開発に携わっていただきます。
必須スキル
- Pythonを使用したバックエンドの開発経験
- Reactを使用したフロントエンドの開発経験
- AI関連の知見や興味
職務内容
PdMとして、新規事業における企画、組織構築、開発などをご担当いただきます。
具体的な業務としては、プロダクトビジョンおよびロードマップの策定や市場調査、ユーザーインタビュー、PRD(Product Requirements Documen)作成などをご担当いただきます。
必須スキル
- 自社プロダクトにおけるPdMもしくは企画・要件定義などの経験
- ユーザーインタビュー、ロードマップ作成の経験
- PRD、業務フローなどの資料作成経験
職務内容
SaaS型不動産システムの開発案件です。
主に、バックエンドエンジニアとして Kotlin を使用した実装や要件定義、設計、レビューなどをご担当いただきます。
開発手法はアジャイルを採用しており、上流工程から下流まですべての工程に携わっていただきます。
また、バックエンドだけではなくフロントエンドやインフラ、PMなどさまざまなポジションへのチャレンジもできる環境です。
必須スキル
- Kotlin or Javaを使用したWebアプリケーションのバックエンド開発経験
- 要件定義・基本設計の経験
- AWS、GCPなどを使用した開発経験
- Docker, Kubernetesなどコンテナ関連技術の利用経験
職務内容
大手SIerが手掛けるプロジェクトにおける、プライベート クラウドからAWSへの移行支援案件です。
適切なサービスを提供するため、ユーザーサイドやベンダーの間に立ちプロジェクトを推進いただける方を募集しております。
具体的な作業は、移行に関する提案書作成、ベンダー管理、見積もり、AWSの設計・構築などを想定しています。
必須スキル