案件内容 |
今後の世界的な課題であるエネルギー問題に対するシステム的な取り組みとなります。そのため社会意義の高い要件を新しい技術領域で対応していく事になります。現在、国内の一部地域を利用した分散電源のデータを共有化するためデータ連携基盤の構築が進められております。技術的な背景はクラウド・DWHの技術的な知見が必要となります。業務設計は出来ておりますが、アーキテクチャー設計は出来ていないため、抽象的な要件の非機能要件化を進めて頂きます。 |
---|---|
必須スキル | ・クラウド基盤における知識/実務経験
・技術的に有ると望ましい物
Kafka / AirFlow / Spark等のデータ分析基盤のクラウドエンジニア側での知識/経験
コンテナオーケストレーション(Kubernetes)知識/経験
※重要:DWH(TiDB/Snowflake)の実務経験
|
データエンジニアの案件一覧
過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。
該当件数:600件
データエンジニアの案件を探す
- 〜¥1,200,000 /月
- BIエンジニア
- 東京都
- コンサル・シンクタンク
案件内容 |
■概要すでに始まっているプロジェクトであり、現PMの交代として入って頂くことを想定。 どこからデータ持ってくるのか、どんなレポートを持ちたいのか、各チームとのやり取り、クライアントとの仕切りを担当頂く。 個々の技術者はいるので、PMとしての取りまとめやジャッジ、プロジェクト推進を期待する。 Azure上でETL/DWH/DMを設計する必要があり、マネジメントコントロールを行ってほしい(データソースはSAP) |
---|---|
必須スキル | ・Azure上でETL/DWH/DMを設計できるコンサルの方
・Power BI案件でPM経験がある、又はPMができる
・ITプロジェクトでのリード経験が豊富である
|
案件内容 |
GCP構築業務 ・データパイプライン設計構築 ・DWH、データマート設計構築 GCP(BigQuery,Dataflow等) |
---|---|
必須スキル | GCP構築経験 |
案件内容 |
概要: エンドクライアントの分析基盤の設計、開発、運用を担当いただきます ・外部とのデータ連携 ・データ仕様や処理のスキームについての要件擦り合わせ ・AWS S3, Google Cloud Storage, Google Drive と言った各種ストレージと BigQuery 間でのデータの転送処理を Cloud Functions と Airflow を用いて実装・管理 ・IAM の発行・管理、データのアクセスコントロール ・データサイエンティストと意見交換しながら、データの取得や前処理、予測モデル・予測値生成、および抽出のバッチ化・運用 ・データ処理に係るコストのモニタリング、最適化施策 ・データ連携に係るプライバシーマークへの対応 フラットな組織で、自身で物事を推進する文化です。 |
---|---|
必須スキル | ・社内外と的確かつ迅速に物事を相談して進めるためのコミュニケーションスキル
・データベース、処理スキームの設計、運用
・ビッグデータの処理スクリプト開発(大量ファイル・大容量データにおける文字コード変換、文字置換、一括解凍・圧縮等)
・Python, Java, Go, Rのいずれかの言語による簡易なデータ分析スクリプト開発
|
案件内容 |
概要: エンド企業へGCP導入にあたってのデータエンジニアを募集しています。 ・顧客折衝、要件整理、ドキュメンテーション ・データパイプライン設計構築 ・DWH、データマート設計構築 GCP(BigQuery,Dataflow等) |
---|---|
必須スキル | ・GCP経験
・データエンジニアリング経験
|
案件内容 |
弊社最初のプロダクトである、鉄スクラップ解析アプリケーションに搭載されるAIのモデルをAIチームと協業しながら、パイプラインを構築し、本番環境でモデルのトレーニング、テスト、デプロイ、配信、監視、保守、運用を担当いただきます。もちろんチームと相談して分担はしますが、データ収集、前処理といったデータエンジニア領域での活躍も期待しております。 まだまだ出来上がった製品ではなく、ユーザーと近い距離で開発をすることができることも魅力の一つです。 |
---|---|
必須スキル | – MLOps、SREに関連した業務開発経験
– Docker等のコンテナ技術の基礎的知識
– Git / GitHubを利用したチーム開発経験
– AWS等のクラウドシステムを利用した開発経験
|
案件内容 |
【案件概要 】弊社クライアント(HR系)のデータマネジメント部署にてデータマートの開発およびディレクション業務を担当いただきます。 データ分析/活用プロジェクトへ参画いただき、データエンジニアとしてデータマート開発実装をメインにご担当いただきつつ、データ要件の定義やプロジェクトの進行管理などディレクション業務も一部ご担当いただきます。 ・データ分析/活用プロジェクトの推進 ・データマート開発における要件定義、プロジェクトの進行管理 ・分析用データマートの開発 └データマート(テーブル)設計、SQL実装、バッチ(digdag)実装・データマートの保守運用 |
---|---|
必須スキル | ・SQL を用いた分析用データマートの設計・開発・運用経験
・Redshift、BigQueryでの大量データのハンドリング経験
・Web システムに関する基本的な理解と業務開発経験
・データ分析/活用プロジェクトのマネジメント経験
・周囲と適切にコミュニケーションをとりながら抽象的な課題を整理して解決に導く能力・スタンス
|
案件内容 |
SAS(base)で作成されているシステムの更改案件。SAS固有の部分はバージョンアップ後の環境に基本的にはそのまま移行しますが、既存の画面機能がSASで構築されており、更改後はJAVAに置き換えを実施。参画された際は既存SASの仕様を読み解き、JAVA開発者に仕様を伝える役割を担っていただきます。 2023年4月以降も延長可能あり。 |
---|---|
必須スキル | ・SAS(Base) |
案件内容 |
SAP Analytics Cloud、Datawarehouse cloudを使用した開発作業 ・DWH構築作業(DWH要件定義、IFデータ整理、データ処理方式検討、要件資料作成) ・BI構築作業(BI要件定義:画面要件整理、項目マッピング、要件資料作成) |
---|---|
必須スキル | BI,DWH構築の上流工程(要件定義)の対応経験
SAC、DWC、SAPERP等の知見(モジュール開発等)
|
案件内容 |
AWSで開発・運用されているサービスのデータ基盤エンジニアとして開発・運用・保守を担当いただきます。 |
---|---|
必須スキル | ・クラウドでの豊富な開発・運用業務経験
・特にAWSの以下のデータ基盤・分析に係るサービスの利用経験やその他ETLツールなどの利用経験
S3, Glue, Athena, Redshift, Kinesis, QuickSight, Lake Formation, 機械学習系のサービス
・Webアプリ/サービス/APIの開発経験(Ruby[Rails], Python)
・自律的に、かつチームメンバーと情報共有・相談をしながらタスクを進められる方
・Dockerの知識や利用しての開発経験
・顧客(利用者)視点で、既存の仕組みの改善や提案ができること
|
検索結果600件中371-380件