データエンジニアの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:666

データエンジニアの案件を探す

案件内容

概要:
お客様データを保有・分析する基盤システム(MLOps)を構築する。
役割:
アジャイル形式で進行するプロジェクトに参画いただき、MLOps基盤の詳細設計と構築を実施していただく。
期間:
2023/09/01~2023/10/31(フェーズ1)
※フェーズ1が問題なく完了すればフェーズ2が11月より開始予定
報酬:
PMクラス1名PLクラス1名

必須スキル
・Azure上での環境・サービス構築の経験がある。(MLOps向けのサービスであることが望ましい)
・python 3系でのコーディング経験が2年以上ある。
・業務でのソフトウェア開発経験が1年以上ある。
案件内容

データユーザーの要求から的確なデータとフローの設計を行い、パイプラインの構築やパイプラインを動かすデータ分析基盤の運用保守を担当いただきます。

技術要素(★が特に重要)

  • ETL/ELTツール
  • Embulk★
  • digdag
  • BIツール
  • Redashなど
  • GoogleCloud
  • Cloud Storage★
  • BigQuery★
  • Cloud Monitoring / Cloud Logging
  • その他
  • Git
必須スキル
・データ分析に関わる開発実務経験(SQL/Pythonなど)
・データモデリング力とバッチ設計能力が高い方
・高度なSQL(CTE、副問い合わせ、Window関数の利用など)の知識
・Linux / ネットワークの基礎知識
・運用リーダーとしてのタスク管理や運用業務改善の経験
案件内容

現在国内エネルギー系⼤⼿企業がエンド顧客となるデータ基盤構築PoCプロジェクトが進⾏中。
PoCを通してインフラアーキテクチャの策定、⼤まかなデータパイプラインのフローを策定した9⽉以降の本番環境構築では、インフラ構築からセキュリティ対応、より多くのデータパイプライン構築を予定しており、データエンジニアの拡充を⾏っている。

データ基盤要件定義
データレイクに保存するデータの形式の洗い出し (CSV, JSON, 画像ファイ
ル etc…)
データソースのインターフェイス特定 (REST API, FTP etc…)
データ加⼯(ETL)要件ヒアリング
データレイク設計 (Hadoop File System)
DWH設計/テーブル定義 (Apache Hive, Spark, HBase etc…)
データフロー設計 (Apache NiFi)
バッチアプリケーション作成 (Java, Shellスクリプト)
インフラセキュリティ対応 (SSL化対応、AD認証連携 etc…)

   

環境
オンプレサーバー (現地作業等は無し、リモートから接続)
OS: RHEL8HPE Ezmeral Data Fabric (Hadoop, Hive, Spark, NiFi etc…)
データ分散処理基盤にまつわるpache系OSSをまとめたパッケージ製品
(サポートが付くだけのようなイメージ)
HPE Ezmeral Runtime (≒ Kubernetes)
OpenShift等に⽐べ、より純正Kubernetesに近い
構成
データレイク: HDFS, minio(≒S3), HBase
DWH: Hive or Spark
ワークフロー: NiFi or Airflow
データ加⼯: Hive, Spark (シェルスクリプト/Java or Python)
BI: Tableau, Palantir (本募集スコープの作業範囲外)
体制
アジャイル開発 (スクラム)
メンバー10名程度
デイリーで午前にスクラムミーティング有り

必須スキル

3年以上のバックエンドまたはインフラ開発経験

案件内容

ヘルスケア業界のクリニック連携システムのデータ分析基盤構築をご担当いただきます。データの分析基盤をGCPにて構築する案件です。BigQuery内でデータレイク、データウェアハウス、データマートの構築や各種DBからのデータパイプライン構築に携わっていただきます

必須スキル
BigQueryを利用したデータ分析基盤の運用経験
dbtの実務経験
データウェアハウスにおけるデータモデリングのご知見
コミュニケーションが円滑であること
案件内容

スマートシティ構想のクライアントにて主に以下の業務を依頼します。
[主要業務]
・Data Pipeline 設計、実装
・ML Ops 設計・実装 、 サービス・モデル
・データセキュリティ 設計、実装
・AI サービスAPIの設計、実装
・データ可視化サービスの設計、実装
・データ収集PoC 向けシステム設計、実装
[備考]
・daily scrum、sprint planning/review参加、報告(英語)
・PoC関連ドキュメント作成 (英語)
・メンバーとのdailyコミュニケーション(slack meet,f2f:英語)
[その他利用ツールなど環境]
・Python,AWS
・MS(Excel、Word、 Power Point)、G suite、Slack
・GitHub、JIRA/Confluence、Linux(CLI)

必須スキル
・データ ETL処理パイプラインの設計、実装経験
・クラウドプラットフォーム(特にAWS)のシステム管理経験
・マイクロサービスの設計、実装経験(API)
・英語でのビジネススキル
(日本語での会話もありますが、MTGなど英語を利用。ビジネス英語での経験がなくてもストレスを感じず慣れていく感じでもOK)
案件内容

クライアントにてTableauの運用を進めておりサポート出来る方を募集いたします。

必須スキル
・Tableauを実際に操作したことがあり、かつ見たいデータ要件からそれをTableau上で具現化できる・提案できる(直感的に使えるダッシュボードをデザインできる)
※例:「こんな値を見たいんだよね」と言ったら、その場で「こういう形で表現するのがよいのでは」とTableauを修正できるような方)
・ユーザ部局との打ち合わせを通じて、ユーザニーズをくみ取り、その上で、適切なユーザインタフェースを提案できる
(ユーザは、自分たちが見たいモノ・コトはある程度理解していますが、それをTableau上でどう表現するのが最善かは理解していません)
案件内容

案件詳細:
 - メインは物流拠点(倉庫など)の在庫推移などを可視化するダッシュボードを作成
 - 他可視化レポート(アンケートデータや注文データなど)作成の可能性あり
 - ダッシュボードはTableauで作成(Tableau Desktop → Tableau Server にパブリッシュ)
 - 入力データはBigQueryに格納。SQLを用いて加工、抽出

必須スキル
・SQLによるデータ加工経験(とくに複数テーブルの結合~加工)
・Tableauによるダッシュボード作成経験(他BIツールの利用経験含めて1年以上)
案件内容

・Webサイトについてのデータマート設計・開発・保守
・データ分析支援(Tableauを利用したデータ可視化)

環 境:Tableau, SQL, BigQuery, Git

必須スキル
・SQL/データ抽出経験
・基本設計以降のご経験
・スケジュール管理、タスク管理、課題管理(リーダーのみ)
案件内容

-大量のトランザクションデータを処理し、ダッシュボードでインサイトを可視化するデータ分析システムの構築
-ボトルネックの分析と解決策の提案
-開発標準ルールの整備

必須スキル
– データ分析システム構築経験
– Tableauを含むBIツールの経験
案件内容

■CDP/BIアーキテクト
企業のデータ資産価値の向上のため、戦略立案・組織設計、先端技術導入シナリオ策定の課題に対して、コンサルタント(アーキテクチャ設計)として戦略基盤支援。
・Tableauの要件定義~詳細設計、構築、レポーティング(メイン業務)
・Tableau + GCPのBIリプレース案件
・データの細部が見れデータマートをパフォ考慮して設計
・マイグレーション支援
・同時に、CDP/MAの構築要件定義が走っており、マーケティング統合基盤の全体PRJの一貫です。

具体例:
-DWH環境: salesforce CDP, teradata, Athena のデータブレンドが必要
-CDP, S3, Athena, Tableau onlineのデータソース/データマート/ダッシュボードの設計・開発
※CDPを中心とした顧客360PRJは、本案件以外で今後も増加予定
※国内でも初のソリューションスタック
※適材適所でポジションを用意(エンドクライアントは小売業が多い)

【依頼元会社】
デジタルトランスフォーメーションを実現するために必要な、
コンサルティングからマーケティングまで、ワンストップで提供している会社の業務です。
エンドクライアント別で新規顧客の獲得や見込み顧客の育成なども含めたマーケティング施策をサポートしています。(MA)

必須スキル
・BI開発経験(Tableau(BI)エンジニア)
・クレンジング、AWSやGCP、bigquery、python等のデータエンジニアリング経験
・SQLに十分な経験
・AWS系DB経験 Athena, redshift等
・クラウド系のDWH経験
※全て満たしている必要はございません。

検索結果666件中261-270件