フレックス高単価長期自社サービス新規立ち上げBtoB
職務内容
新規プロダクト開発におけるバックエンドエンジニアとして、 DevOps、SRE、QAなどと連携しながらCI/CDの設計・実装やレビュー、API設計などをご担当いただきます。
また、チームの生産性やプロダクト品質向上のための、各種自動化やプロセスの整備、チームに知見を共有するためのドキュメント作成もご担当いただきます。
開発環境や使用ツールの選定にも携わることができるポジションです。
必須スキル
- Go を使用したWebアプリケーションのバックエンド開発経験(Java、Scala、Rust などでも可)
- CI/CDの設計・構築経験
- APIの設計・開発経験
フレックス高単価長期自社サービス新規立ち上げBtoB
職務内容
エンド内新規プロダクトにてバックエンドエンジニアを募集します。
業務内容は、追加機能や新規機能開発における計画策定、設計~テスト、運用までを想定しています。
開発手法にはDDDを採用しており、クリーンアーキテクチャに基づいた設計経験のある方を募集しています。
必須スキル
- Webアプリケーションの開発経験5年以上
- Goを用いた開発経験
- データベース設計の経験
- Gitを利用したチーム開発経験
- DDDまたはクリーンアーキテクチャの実務経験
職務内容
SaaSプロダクトにおけるデータパイプラインの設計、構築~運用・保守をご担当いただきます。
具体的には、複数のデータソースとの連携処理の実装やデータ品質管理プロセスの設計 と実装、データパイプライン監視システムの構築などをご担当いただきます。
必須スキル
- Python を用いたデータ処理の経験
- Git および Github もしくは Gitlab を利用した開発経験
- GCP を用いたDWHまたはデータパイプラインの構築経験
- SQL を用いたデータ操作、分析の経験
職務内容
複数事業を展開している企業にて、toB/toC両面で展開しているサービスにおける戦略立案、機能改善、効果検証などに関わるデータ解析、可視化をご担当いただきます。
マーケティングチームや営業など他チームでもデータを活用した意思決定ができるようにDB整備やドキュメンテーションなどの作業も行っていただきます。
必須スキル
- Python を使用したデータ分析の経験
- デザイナーやマーケティングチームと連携した開発経験
職務内容
急成長中企業における、グループ全体のデータ利活用を支える分析基盤の構築プロジェクトにご参画いただきます。
GCP(BigQuery)ベース構成のもと、プロダクトデータ・業務データなどを横断的に取り扱い、統一的なデータモデル設計とELTパイプラインの構築を担っていただきます。
具体的には以下の業務を想定しています
・GCP環境でのデ ータウェアハウス設計・実装
・ELTパイプラインの構築
・dbt によるデータモデリング
・Apache Airflowによるワークフロー管理
・データプロダクトの品質担保(データテスト、監視、リネージ管理)
・Looker 向けデータマートの最適化とセキュリティ設計
プロダクト志向のデータエンジニアが集う、非常にレベルの高い現場です。
必須スキル
- BigQuery を使用したDWHを用いた分析基盤構築の経験(3年以上)
- Python でのETL/ELT開発経験
- SQLチューニングやテーブル設計におけるパフォーマンス最適化の経験
- Airflowなどのワークフロー管理ツールの利用経験
職務内容
エンド企業にて、事業KPI可視化のためのTableauダッシュボード設計・構築を担当いただきます。
既存のデータウェアハウス(BigQuery)と連携し、経営陣が日次・週次で意思決定できるように各種メトリクスの定義や粒度を整備していきます。
SQL でのデータ抽出、Tableau でのダッシュボード設計・構築など視覚的な工夫も求められる業務です。
必須スキル
- Tableau での業務ダッシュボード構築経験
- BigQuery や Redshift 上での SQL によるデータ加工経験
職務内容
大手金融系企業にて、AWS を活用したデータ分析基盤構築プロジェクトに参画いただきます。
S3 ベースのストレージ設計から Glue によるETL処理の構築、Athena や Redshift でのクエリ最適化まで一貫してご担当いただきます。
セキュリティ要件が高いため、IAM設計や監査ログ設計などにも関与いただくポジションです。
業務部門や他ベンダーとの調整も発生するため、自走力やドキュメント力も重視されます。
必須スキル
- AWS を用いた分析基盤構築経験
- Python または PySpark でのETL処理経験
- IAMやデータセキュリティに関する理解
職務内容
グローバルに展開するSaaS企業の分析基盤の刷新プロジェクトにて、Snowflake と dbt を用いたデータモデリングをご担当いただきます。
複数の業務SaaS(Salesforce、Hubspotなど)との連携を行い、マーケティング・営業・CS部門が共通で参照できるドメイン横断のデータマートを整備します。
ETL処理の標準化、モデリングルールの整備、CI/CDパイプラインの構築まで幅広く裁量を持って推進いただけるポジションです。
必須スキル
- Snowflake、Redshift、BigQuery などを使用したDWHの設計・構築経験
- dbt を用いたデータ変換処理の設計・運用経験
- Git を用いたチーム開発経験