データエンジニアの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:600

データエンジニアの案件を探す

案件内容

クライアント内で構成されているOSSアプリケーションの仕様を把握し、それぞれの連携を行い、データ基盤そのものを構築いただきます。

技術要素
GoogleCloud
Cloud Composer2(及びAirflow2)
Cloud Dataproc(Apache Spark(scala))
Cloud Build
Cloud Storage
BigQuery
Cloud Monitoring / Cloud Logging
AWS
Kinesis firehose
SQS / SNS
ECS
Lambda
ECR
S3
Cloud Watch
その他
GithubActions
Terraform

必須スキル
・アプリケーション仕様の理解力とシステム設計能力が高い方
・Pythonを利用したデータ分析/開発経験
・高度なSQL(CTE、副問い合わせ、Window関数の利用など)の知識
・AWS、GCPいずれかのクラウドサービスの開発及び運用経験
・Linux / ネットワークの基礎知識
案件内容

BI高度化に向けサポートいただける方を募集しております。

具体的にはBIツールを使用して顧客管理/売上管理データ等を含む

レポートティング/ダッシュボード作成をお願いしたいです。

複数のマスターデータがございますので必要なデータを抽出し、加工いただくこともスコープとなります。

IT部門と業務部門と会話しながらプロジェクトを進めていただきたいと思います。

想定される業務は下記となります。

・BIレポート/ダッシュボード作成

・部門間コーディネート、ユーザコミュニケーション

・上記附帯する業務一式

必須スキル
・PowerBI 開発経験必須

 

・SQLなどのクエリの取り扱いが可能な方

 

・プロアクティブなコミュニケーション能力
案件内容

グローバル展開されている機械部品専門商社の基幹システム刷新プロジェクトをご支援いただきます。
 現行システムから新システムへのデータ移行を実施する案件となります。
 移行計画に則り、移行要件整理、移行方式設計、移行ツール設計、手順書作成、移行作業をご担当いただきます。
 なお、移行対象DBはOracle、PostgreSQL、MySQLで、AWSのDMSなどを活用してデータ移行を実施します。
 移行対象テーブルは200件・1テーブルの最大データ件数は約4億件となり、大規模なデータ移行案件の知見が獲得できます。
 業界トップの大手商社のデータの構造、データの作り方、運用方法、課題などについても知見が獲得できるポジションです。

必須スキル
・SQLが読み書きできる
・データ移行の経験がある
案件内容

AWS PostgreDBからSQLなど駆使しAWSクイックサイトでBIに落とし込みます。
設計までは既存のメンバーで行います。
実装部分の構築支援をお願いします。

必須スキル

・SQL、BIツール経験
 DBはPostgre(AWS版)

案件内容

データ分析グループの業務支援を行う案件です。
SASプログラムの開発(データ抽出)をテンプレートに準拠して行います。
コーディングはルールに沿って行います。

必須スキル
・DBスキル
・SQLスキル
・システム開発力
・コミュニケーション力(自分の考えを整理して説明できること)
案件内容

FY2023末に現行DWH移管、共通IT基盤への切替を計画している。
お客様の各部門でBIツール(Tableau)導入が進んでおり、共通IT基盤等のデータを活用した全社データ活用基盤を構築することを目標としている。
現在、フェーズ1(案件目的整理、ロードマップ策定、グランドデザイン策定)をやっており、8月からのフェーズ2(全社将来像整理、データ活用基盤PoC検討/要件定義、データ分析基盤検討/要件定義)から参画の要員を募集している。※PJチームが増え規模が大きくなるためフェーズ2は8月〜10月でスケジュールをひいているが、後続フェーズも控えているため契約更新想定。

必須スキル
・データ活用基盤導入経験
・データマネジメント
・Snowflake、Tableauに関する知見(当PJで導入予定のため)
※Snowflake自体の経験がなくても、データ利活用の知見があればそちらのスキルを優先
・プロジェクト推進(チームが増えるため、全体を見据えてチーム間のやり取りをする必要がある)
案件内容

顧客データ基盤におけるBI業務を担当いただきます。
<主な業務内容>
・データ収集
・データ分析
・データ管理
・データ可視化

必須スキル
・Tableau、powerBI、looker studioなどBIツールを活用した経験のある方
・SQLで事業担当者向けのデータ抽出や
BI用のデータマートを構築したご経験
案件内容

デジタルマーケティングツールやデータ分析ツールへのデータ投入のための ETL 準備、実装を行います。

作業内容:
・某社向けデータ分析のためのデータ処理基盤の開発・保守・運用・機能追加

必須スキル
・Linux 環境での開発経験
・AWS, GCP などクラウドを使用した開発やインフラ設計・構築の経験
・SQL が実践レベルで書けること(3年以上の実務経験)
・Python, Java, PHP いずれかの言語での開発経験が3年以上
・スピード感が求められる作業が多いので、報告や相談などのコミュニケーションがスムーズにできること
案件内容

土地・建物に関する情報の収集・クレンジングを行うデータ連携基盤(データレイク/DWH)の構築

必須スキル
・要件定義/基本設計の経験
・①DWH構築
・②データクレンジング
①②いずれかの知識・経験
案件内容

【業務内容】
大手広告代理店が展開しているインターネット広告代理店業における、膨大な広告データを収集・蓄積したデータレイクからデータを展開するためのデータ基盤(ETL処理、DWH、DM)の開発、運用、保守をお願いします。

【ポイント】

  • データレイクが取り扱うデータ量は数十TB/月を誇り、毎日数10億単位のレコードを蓄積しているため、そんな大規模データと向き合った開発にチャレンジすることができます。
  • 複数のプロダクトを管理しているチームのため、様々な技術を習得することができます。

【開発チームと配属先について】
当事業部には現状で約60名のエンジニアが在籍しており、複数のチームに分かれて開発を進めています。
今回お願いしたいポジションはサーバサイドエンジニアです。

チームには現在18名のエンジニアが在籍しています。
また、複数のプロダクトを管理しているチームのため、担当領域ごとにグループ分けをしています。

  • Infeed領域の広告運用のためのプロダクトを開発するグループ
  • インターネット広告関連データをデータレイクに蓄積するシステムを開発するグループ
  • インターネット広告関連データが蓄積されたデータレイクを用いたデータ基盤を開発するグループ
  • 機械学習を用いたプロダクトを開発するグループ
  • 掲載情報や実績情報を出力・レポーティングするための分析用プロダクトを開発するグループ

【技術キーワード】

  • ApacheSpark
  • AWS Glue
  • Snowflake
  • データレイク/データウェアハウス/データマート
必須スキル
– Scala,Java,Pythonなどを用いた開発経験 3年以上
– ApacheSpark,PySparkなどを用いたETL処理の開発・保守経験 1年以上
– SQLを用いた開発経験 3年以上
– AWSを利用した開発経験
– Dockerなど、コンテナ技術を利用した開発経験
– GitHubでのPRを利用した開発経験

検索結果600件中241-250件