分析基盤エンジニアの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:311

分析基盤エンジニアの案件を探す

案件内容

■案件内容:
【システム概要】
AWS環境に、データ分析用API構築。
AWS(EC2,ECS,ECR,CloudFormation,Lambda等) の構成。

【開発方式】
ウォーターフォールモデル or アジャイル

必須スキル
SQL
プログラミング経験
Python
AWS
案件内容

■案件内容:
【システム概要】
新規でのデータ分析基盤の構築業務

【担当領域】
スキル見合いで体制と相談しますが、上流から下流まで幅広く対応いただけます。

   

【システム構成】
以下の技術要素で構成されます。
インフラ:Azure
DWH:Databricks
BI:PowerBI

【開発方式】
ウォーターフォールモデル

必須スキル
SQL
プログラミング経験
データ基盤構築
案件内容

Google Cloud / AWSを利用した商用稼働サービスのデータパイプラインの開発・保守運用と日々の運用業務から発生する課題の解決・改善

主要技術:BigQuery/Cloud Composer(Airflow)/Python/(一部Spark)

必須スキル
・Pythonを利用したデータ分析等の開発経験、SQLの知識
・AWS、GCPいずれかのクラウドサービスの開発及び運用経験
・Linux/ネットワークの基礎知識
案件内容

データユーザーからの要求をくみとり的確なデータとフローの設計を行い、パイプラインの構築やパイプラインを動かすデータ分析基盤の運用保守を行う。

必須スキル
・クラウドデータ基盤サービスでの開発運用保守経験(特にBigQueryの経験があると良い)
・データ基盤運用の範囲におけるSQL(DDL/DML、CTE、副問い合わせ、information_schemaの利用、など)
・Linux / ネットワークの基礎知識(Linuxサーバの運用保守経験があると良い)

 

以下技術要素参照(*が特に重要)
– ETL/ELTツール
– *Embulk
– trocco
– digdag
– BIツール
– Redashなど
– GoogleCloud
– *BigQuery
– Cloud Storage(updated)
– Data Transfer
– IAM
– Cloud Monitoring / Cloud Logging
– その他
– *Linux
– *Bash
– Git
案件内容

主業務:定義された設計書の意図を理解し、設計書に沿ってデータを加工するパイプラインバッチの開発を行う。

主要な使用技術:BigQuery/dbt/Prefect/great_expectations(一部Airbyteの可能性)
期間:短期間(2024/1〜3月の3ヶ月間)想定
その他希望:週5日フルタイム(フレックス制)、フルリモートOK

必須スキル
・Python、SQLに関する開発経験
・円滑なチーム開発能力
(ジュニアエンジニアレベル〜エンジニアのスキル感)
案件内容

設計、構築、テスト、システム移行(基本設計から一人称)
データ移行(Oracle→PostgreSQL)
バックアップ、OS/ミドルパッチ適用準備(ローリングアップデート)などの
基盤周りの対応

必須スキル
Linux(RHEL系)の設計・構築経験
PostgreSQLの設計・構築経験
ファイルサーバの設計・構築経験
RDB移行の経験
クラスタ構築経験
案件内容

既存システムで溜まったビックデータを活用して新規事業開発を行なっており、データの分析や開発基盤の構築など上流から携わります。その後の開発までを見据えた技術選定などもお力添えいただければと考えておりますのでフルスタックのエンジニアを募集しております。

必須スキル
・データ基盤構築の経験
・PythonもしくはPHPでの開発経験、知見
・AWSの環境構築の経験
案件内容

・パラメータデータベース構築要件定義/設計
・お客様要求を基にデータベース要件をまとめる
・要件からデータベース設計を実施し設計書を作成
・詳細化した内容を基にしてArasツールを使用したデータベース構築を実施
・ノーコードによるAras管理者機能使い込みと、ローコードによるプログラミングの実施
・不具合時の関係者との調整とデバッグ作業

必須スキル
・データ管理システムの開発または構築経験
・JavaScript,C#言語の経験
案件内容

■クライアント支援範囲
・データ基盤構築、機械学習システム構築/精度向上、時系列データ予測/異常検知、自然言語(テキスト)解析、画像認識
■概要
<1月~3月にて、データ基盤構築(Power BIとTableau込み)の上流工程(基本設計)を予定>
本プロジェクトは、現行のAWS(プロトタイプ環境)からAzureへの移行および拡張となります。
・Azure Synapse Analyticsへ外部データやユーザーが保有するデータを投入し、Power BIとTableauで分析。
TableauはTableau ServerからTableau Cloudへの移行を伴い、外部データの取り込みには、Synapse Analytics のパイプラインや、Azure FunctionsやAzure Logic Appsを利用。
■想定業務
※TableauとPower BIを中心としたDWH技術者
・ドキュメント作成(基本設計書/移行計画書)
・Tableau ServerからTableau Cloudへの移行設計
・DWH(SynapseやSnowflakeやRedshiftなど)のデータアーキ

   

▼関連ソリューション
・Azure Synapse Analytics
・Azure Functions
・Azure Logic Apps
・Tableau Cloud(またはTableau Server)
・Power BI Service
■体制
体制:
AIチームは全部で15名程度
6名~7名→AIエンジニア  6~7名→BI・データ基盤
1クライアントに対して4~5名で体制を組んでいる
■環境
クライアント内ではデータ基盤設計~BI・内製化/運用支援まで行っている
データ基盤:Azure
(クライアント内で基盤設計・構築)
BI:PowerBI
(クライアント内でレポート作成・運用)

必須スキル
・Tableau ServerからTableau Cloudへの移行設計の経験
・DWH(SynapseやSnowflakeやRedshiftなど)のデータアーキテクチャ(データパイプライン・データマート)
案件内容

AWS上にIoTデータを集積したレイクハウスを設計・構築いたします。
設計・構築の依頼はAWS Glue、StepFunctionsによる設計・構築、テストが依頼範囲となります。
データ規模が大きいシステムのため、AWS Glue、Sparkの技術に明るく性能面、コスト面から最適化のアプローチができる方を希望します。

必須スキル
・AWS上でのデータ分析基盤を構築した経験
・AWS Glueを前提としたPython(PySpark)によるETL開発経験
・Gitを前提とした開発フローの経験

検索結果311件中51-60件