データエンジニアの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:600

データエンジニアの案件を探す

案件内容

■クライアント支援範囲
・データ基盤構築、機械学習システム構築/精度向上、時系列データ予測/異常検知、自然言語(テキスト)解析、画像認識
■概要
<1月~3月にて、データ基盤構築(Power BIとTableau込み)の上流工程(基本設計)を予定>
本プロジェクトは、現行のAWS(プロトタイプ環境)からAzureへの移行および拡張となります。
・Azure Synapse Analyticsへ外部データやユーザーが保有するデータを投入し、Power BIとTableauで分析。
TableauはTableau ServerからTableau Cloudへの移行を伴い、外部データの取り込みには、Synapse Analytics のパイプラインや、Azure FunctionsやAzure Logic Appsを利用。
■想定業務
※TableauとPower BIを中心としたDWH技術者
・ドキュメント作成(基本設計書/移行計画書)
・Tableau ServerからTableau Cloudへの移行設計
・DWH(SynapseやSnowflakeやRedshiftなど)のデータアーキ

   

▼関連ソリューション
・Azure Synapse Analytics
・Azure Functions
・Azure Logic Apps
・Tableau Cloud(またはTableau Server)
・Power BI Service
■体制
体制:
AIチームは全部で15名程度
6名~7名→AIエンジニア  6~7名→BI・データ基盤
1クライアントに対して4~5名で体制を組んでいる
■環境
クライアント内ではデータ基盤設計~BI・内製化/運用支援まで行っている
データ基盤:Azure
(クライアント内で基盤設計・構築)
BI:PowerBI
(クライアント内でレポート作成・運用)

必須スキル
・Tableau ServerからTableau Cloudへの移行設計の経験
・DWH(SynapseやSnowflakeやRedshiftなど)のデータアーキテクチャ(データパイプライン・データマート)
案件内容

・データ分析システムの保守開発
・顧客からの要件を基に上流工程から下流工程まで実施
・要件定義、影響調査、設計、製造、試験、リリースを実施

必須スキル
・顧客対応経験
・要件定義からリリースまで経験
・Python、SQL
・AWS
・データ分析システムの開発経験
案件内容

AWS上にIoTデータを集積したレイクハウスを設計・構築いたします。
設計・構築の依頼はAWS Glue、StepFunctionsによる設計・構築、テストが依頼範囲となります。
データ規模が大きいシステムのため、AWS Glue、Sparkの技術に明るく性能面、コスト面から最適化のアプローチができる方を希望します。

必須スキル
・AWS上でのデータ分析基盤を構築した経験
・AWS Glueを前提としたPython(PySpark)によるETL開発経験
・Gitを前提とした開発フローの経験
案件内容

概要:
登録者数40万人の電子お薬手帳の調剤データ、購買データといった パーソナルヘルスレコードから ビジネスにつながるインサイトを探し出すプロダクトにおいて、分析基盤を刷新いただけるエンジニアを募集しています。

業務:
・DWH/ETL/データマート設計構築
・データパイプラインの自動化
・Isue対応、技術調査
・上記に付随するドキュメント作成、MTG対応

環境:
AWS(EC2/S3/Redshift/Glue),Tableau,Python

必須スキル
・クラウドでの分析環境設計構築経験(1年以上)
・データパイプラインの自動化経験
・コミュニケーション能力
案件内容

データ分析基盤となるDWHの構築および保守運用支援

必須スキル
・データ連携処理の開発経験(日次バッチ/ワークフロー)
・クラウド利用経験
・SQLによるデータ加工経験
・Pythonによるデータ加工経験
案件内容

 商品情報の特性(危険品)の分析や、在庫情報の最適化を目的としたデータ分析ならびに、
データ分析に必要なデータの収集・加工をするツールの開発を実施する案件です。
 数億件のデータを扱う大規模なデータ分析業務支援となります。
 データ分析およびデータ分析に必要なデータの収集・加工ツールの開発をご担当頂きます。
 扱うデータは商品情報(マスタ)、在庫情報、入出荷情報(トランザクション)など多岐にわたります。
 クライアントが提示した分析テーマをロジック開発していただきます。
 開発したロジックをもとにデータ分析を実施しレポートしていただきます。
 現時点ではデータ分析用の基盤(仕組み)がないため、仕組みの構築も将来的には担当いただく想定となります。

必須スキル
・自らコミュニケーションを取りに行けること
・データ分析のロジックが整理できること
・SQLが書けること
・IT関連プロジェクト経験5年以上 
案件内容

某ユニコーン企業にてデータアーキテクトとして業務をお願いいたします。

【業務スコープ】
大きく下記2つのタスクをご依頼する予定です。
比重は新機能開発案件6割:データ基盤タスク4割
※100%稼働率の場合

・新機能開発に伴うデータアーキテクトタスク
 -ログ設計
 -データマート作成
 -LookML作業

・データ基盤タスク
 -ETL運用保守及び新規開発
 
【参考使用ツール】
BigQuery、Looker、Dataform、CloudCompaser

必須スキル
・クラウドDWHを用いてデータエンジニアリングをおこなった経験
・中級者レベルのSQLスキル
(window関数等の記述)
案件内容

・エンターテインメント企業における、スマホゲームのログデータ投入業務をおまかせします。

【業務スコープ】
・Google Cloud Platformをバックエンドとするデータ分析基盤の開発・運用
・データ分析基盤と各事業部が有するデータを活用するための開発・運用
・データ分析基盤にデータを収集するETL/ELTパイプラインの開発
・データ分析基盤でデータを集計するワークフローの開発
・上記を継続的に利用するための、ソフトウェアのバージョンアップや周辺ツールの開発(運用)

必須スキル
1. SQLを用いたデータ抽出経験
2. Python、データエンジニアリングの開発経験
3. GCPでの開発経験
案件内容

・データ分析基盤となるDWHの構築および保守運用支援

必須スキル
・データ連携処理の開発経験(日次バッチ/ワークフロー)
・クラウド利用経験
・SQLによるデータ加工経験
・Pythonによるデータ加工経験
案件内容

事業横断のデータ基盤(DWHとデータパイプライン)の設計・構築・運用
既存DWH(BigQuery)とデータパイプラインの拡充
将来のデータ基盤戦略の策定と推進
データ分析によるビジネス課題の発見と推進
・受注背景:既存事業の運用基盤を引き継ぎ、信頼性・利便性向上にコミットするため

必須スキル
・1名でのデータ分析業務経験または現場リーダー経験
・BigQuery、Redshift、Snowflake等のDWH環境利用経験:3年以上
・GCP、AWS等のクラウド環境利用経験:3年以上
・データ分析基盤開発におけるETL処理の理解・経験:3年以上
・データベースに関する知識とSQLの利用経験:3年以上
・ 正規化されたデータをもとにSQLを用いてデータ抽出ができる

検索結果600件中141-150件