分析基盤エンジニアの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:311

分析基盤エンジニアの案件を探す

案件内容

・データ分析基盤の大規模な、追加開発・改造を実施予定。・DWH設計者(データ設計など)もしくは、DWH基盤構築(ツール設計など)

必須スキル
・データウェアハウス構築経験者
・データレイク+データウェアハウスを使ったデータ分析基盤構築経験者
案件内容

業務:プロダクトの分析業務を支える基盤の機能拡充ならびに運用自動化に関わる開発を担当いただきます。・データウェアハウスへのデータ連携を含む、データ基盤で動作するETL処理の開発・データパイプラインを管理・運用・監視する仕組みづくり・取り扱うデータのセキュリティやガバナンス対応・各種運用業務の自動化とドキュメント整備
環境:プログラミング言語: Python, SQLバージョン管理: Git/GitHubデータ分析基盤、環境: AWS, SnowflakeETLツール: trocco, Airbyte, dbt(導入準備中)IaCツール: TerraformBI: Redash, Google Spread Sheet, Looker Studioコミュニケーション: Slack, ClickUp, Notion

リモートワークをベースとしていますが、週1日程度出社日を設けています。週5未満の場合でも、出社日、スクラムイベントのため火曜は勤務日となるようお願いします。

必須スキル
・データ基盤技術の基本的な理解(OS, RDBMSなど)
・データウェアハウスの設計とETL処理の開発経験
・Pythonなどのスクリプト言語を用いた開発経験
案件内容

クライアント社内で運用している需要予測・発注数量最適化ソリューションにおけるデータパイプライン、MLパイプラインの運用、エラー発生、顧客問い合わせ時の初動調査のご担当をいただきます。複数のクライアントの運用を行っており、各パイプラインの運用、さらには、将来的にはその開発まで対応を可能な方を期待しています。

必須スキル
– GCP (BigQuery, GKE, Composer)
– Docker
– Airflow
– python
MLOpsの経験
Pythonを使ったデータ分析の経験
案件内容

・自社プロダクトであるデータ統合SaaSおよび、AWSやGoogle Cloud等のクラウドサービスを用いたデータ分析基盤構築・データ統合パイプラインの設計および実装・SQLを用いたデータマート作成、名寄せ、クレンジング等の実施・BIツールを用いたデータ可視化・外部サービス(CDP/MA/SFA等)とのデータ連携および活用の支援

必須スキル
・AWSやGoogle Cloudなど、パブリッククラウド上でのシステムまたはデータパイプライン構築経験が2年以上
・DWH製品(BigQuery / Redshift / Snowflake 等)の利用経験
・速さよりも品質を重視するため基盤やシステムを通した構築・テストなどの経験がしっかりある方
案件内容

携帯キャリア子会社でのデータパイプラインのPythonでの実装作業です。
・AWS:Glue, Lambda, StepFunctions, Redshift, Redshift Spectrum, IAM, SageMaker, S3, EC2, CodePipeline, CodeDeploy・GCP:BigQuery, GCS, CloudFunction, CloudComposer,・DB:Redshift,PostgreSQL,Oracle,MySQL・リポジトリ:Github Enterprise,CodeCommit・コラボレーションツール:JIRA, Confluence, Backlog・コミュニケーションツール:Slack,Google Workspaces

必須スキル
・SQLをの基本を理解し作業経験が1年以上あること
・pythonを用いたコーディング経験があること
・GCPまたはAWSの利用経験があること
案件内容

■概要
クレジットサービスを運営している会社です。
機械学習モデルを効率よく安全に回せる環境の構築をお願いします。

■業務
・要求課題整理、アーキテクチャ検討
・ワークフローの設計~運用
・CI/CDパイプラインの構築
・モデル設計~構築

■環境
GCP(Dataflow,teraform)
現モデルはVertexAI

必須スキル

・MLOpsのアーキテクチャ検討~構築経験
・GCP及び、AWSの経験
・Iac及び、CI/CDの経験
・表形式データのモデル開発の経験
・英語(少なくともビジネスレベル)

案件内容

エンドユーザー(企業)のDX化を支援するためにデータ事業の展開や社内のデータ利活用を推進する、ETL/ELT処理開発、DWH構築などのデータ基盤開発の責務を担っていただきます。
◆業務内容の詳細◆
Databricks、Airflow、AWS Glueを利用したデータパイプラインの開発・運用
Apache Sparkを利用したETL処理の開発
各サービス開発チームのデータエンジニアリングの支援
◆今後の進展について◆
昨年夏頃にDatabricksを導入したばかりのため、既存基盤からの移行を実施し、全社横断データ基盤として活用していきます。
それに伴い、各サービス開発チームを中心とした分散オーナーシップ型データ基盤開発組織化の推進と全社横断的なデータマネジメントに注力していきます。

必須スキル

・サーバーサイドのアプリケーション開発経験
・AWS/GCP/Azureのいずれかのクラウドサービスを利用した経験
・データレイク、データウェアハウスの設計・構築・運用経験
・ETL/ELTなどのデータワークフロー管理ツールの開発・運用経験
・チーム開発経験

案件内容

DX推進を行っている部署の中で、既存で散らばっている社内のデータを集約する作業を行なっております。

既存のデータはAzureの中に入れており、そこのデータパイプラインの保守作業を行いつつ、新規パイプラインの設計・構築を行っていただきます。(Sparkを想定しております。)

また、集約したデータをBIツールを活用し、データ可視化も行っています。
(既存ダッシュボードの保守、新規ダッシュボード構築など)

必須スキル

・DB構築経験
・データの移行経験(データパイプラインの構築経験)
・SQLを用いたデータ集計の経験
・クラウドもしくは仮想環境での経験

検索結果311件中191-200件