分析基盤エンジニアの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:311

分析基盤エンジニアの案件を探す

案件内容

・既存の案件の変更が多め
・アウトプットイメージを見て項目定義、開発
・ユーザー様との折衝

必須スキル

・分析・集計業務経験

案件内容

DWHやdatalake、AIツール・BIツールなどを兼ね備えた次世代データ基盤及び分析基盤の構築業務をご担当頂きます。
※既存のデータ基盤はAmazon Auroraベースの為、新たに構築する必要があります。

【主な業務内容】
・データ基盤のグランドデザイン
・DWH及びdatalake等の開発企画及び設計・開発業務
・グループ内企業データ連携の設計・開発業務
・AIツール、BIツール、MAツール等で使用するデータの設計・開発業務
・PoCの実施

必須スキル
・DWHの知見をお持ちの方
(必須ではないですが、Snowflakeの経験があれば尚良いです)
・AWS上でのデータ基盤設計・上流工程検討経験

 

※ごエントリー頂ける際には各項目に対して〇✖△をお願いいたします。
またコメントも頂けますと進捗がずむーずになります。
案件内容

製薬業界のマーケティング部門で利用している既存データ分析基盤の利用促進が進まないため基盤更改を行いたい。(既存はExadata利用)
基盤更改を行う際には先進ソリューションを採用して利用促進が進むようなデータ整備の自由度や、現状は可視化レベルに留まる利用を改善したい。5月に構想策定RFPが発出され、6月以降に構想策定実施を想定。

必須スキル
・データ分析基盤構築に関わるPJ経験
・構想策定などの上流工程経験
・データ分析基盤に関わる先進ソリューション理解(AWS各種マネージド、snowflake,databricks,dbtなど)
 ※初期は構築のプロというより、一定の作業理解のもとソリューション特性を押さ得ていることを期待値とする。
・利用促進に向けたデータ整備やデータマネジメントの理解
案件内容

金融機関様向けにDatabricksを新規構築、ETL処理を開発する。

■業務内容:Databricksを利用したETL処理の開発

必須スキル
・要件定義の経験
・Python、SQL、DWHの経験
・1人称でタスクを遂行できること
・コミュニケーション能力
案件内容

オンプレで構築/運用してきた工場のデータを蓄積するサーバを拡張し、
Azure上に時系列データ・外部DB連 携などユーザ増に向けた対応および
データ入出力の機能拡張(電子帳票ツール・BIツールの追加)対応を行う。

必須スキル
・Azure 構築で、PM・プロジェクトマネージャーの経験2年以上
・顧客調整についてネガティブな印象を持たず対応可能な方
・オンプレ/クラウドのハイブリッド構成の構築/設計経験あり
・性能要件のある構成の設計/構築経験あり
・管理業務(進捗・タスク管理、メンバーへ指示出し)
・Azure 構築案件における要件定義・基本設計~のご経験
案件内容

顧客の提供する各プロダクトからのデータ収集、加工・集計・可視化、分析結果からの将来予測などをお願いします。

<開発環境>
・インフラ:AWS(Athena、Redshift、Glue、QuickSightなど)
・データベース:RDS(Aurora MySQL)
・ETL:AWS Glue
・BIツール:Amazon QuickSight
・言語:Python
・コミュニケーション:Slack、Zoom、Backlog、DocBase

必須スキル
・データベースを活用したシステムの設計・開発経験(2年以上)
・AWSのサービス(AWS Glue、Quicksight など)を活用したシステム構築経験
案件内容

大規模口コミサービスを展開している企業にて、データサイエンスチームに所属いただき、
Tableauを用いたデータの可視化やサービスの改善に向けた分析支援などを行なっていただきます。

■開発環境
 言語____:SQL
 DB____:BigQuery
 環境・OS_:GCP (Google Cloud Platform)
 ツール___:Tableau

■開発工程__:要件定義|基本設計|詳細設計|実装・構築・単体試験|結合試験|総合試験|受入試験|運
用・保守

必須スキル

・SQLとTableauを用いた集計可視化、ダッシュボード作成ができる。
・要件に基づいて適切なアウトプット(報告書やダッシュボード、クエリなど)を作成することができる。
・業務報告や相談を必要に応じて滞りなく実施できる。

案件内容

■工程:要件定義~

■案件概要:
・オンプレのOracle ExadataからSnowflakeへDWHを移行
・DWH移行に伴いETL(Datastage)ジョブ他を改修(一部は新規開発、廃止も含む)
・DWH移行に伴い関連システムとのとのインターフェース連携方式変更、その他データフロー変更
・データソース一元化のため、連携ファイル格納先としてS3を新規導入
■規模感
・移行対象テーブル数:約1500本
・移行ETLジョブ数:約1000本
・インターフェース数:約1000本

必須スキル
・内外関係者とコミュニケーションを取り、一人称で進められる
・上流工程経験(スコープ、方針検討、工数見積など)
・ETL開発経験(Datastage)※1名はDatastage必須
・DB/DWH開発経験(Snowflakeの知見があると尚可)
案件内容

クライアントでは「商品名○○」など、クライアントの提供する各種サービスをひとつのIDで使用できる統合管理システム「●●」を運用しております。
今回のポジションは議事録、通話データなどの多様なデータをデジタル化し、統合管理をするデータプラットフォームの構築がメインミッションとなります。

クライアントのデータエンジニアとして、CTO、CSO等と連携しながら、データインテグレーションに関する企画・開発全般をご担当いただきます。

<具体的な業務内容>
・データプラットフォームの企画およびアーキテクチャ設計
・データパイプラインの設計・構築
・データ分析のためのBIの開発・運用
・継続的なモニタリングプロセスの構築・運用
・データサイエンティスト、データアナリストが作成する分析フローの運用改善支援
・顧客データ活用の実態やドメイン知識の理解
・CTO、CSO等と連携し、プロジェクトの目的・方針・計画等の策定 等

技術環境
<プロダクト開発部>
言語:TypeScript, Python, Flutter
フレームワーク:Vue.js, Nuxt.js,Node.js
データベース:Cloud Firestore
インフラ:AWS, GCP, Azure, Cloud Firebase, Cloud Functions
ソースコード管理:Bitbucket
プロジェクト管理ツール:Notion, JIRA
コミュニケーションツール:Zoom, Slack, Google Workspace

<R&D部門>
開発言語:Python
フレームワーク:PyTorch, HuggingFace, SpeechBrain, scikit-learn

必須スキル
・データサイエンス全般に関する理解・経験
・Pythonを含む複数言語(TypeScript等)での開発経験(3年以上)
 TypeScript、SQL、Java、Scalaでの開発経験尚可
・データ基盤および分析基盤などの開発・構築経験(3年以上)
・AWS、GCP等の各種クラウドサービスの利用およびスケーラブルなクラウドベースのアーキテクチャデザイン・実装経験
・ETLやELTの実装経験
・TerraformなどInfrastructure as Codeの運用経験または興味関心
(業務委託の方の場合)平日10:00~18:00の間で週24h以上稼働が可能な方
案件内容

現行水準のままでのHW,SWのリプレース
本番環境(東京)、災対環境(大阪)の2拠点の更改を行います。

工程
基盤 構築・単体テスト~システムテスト

必須スキル

・Linux(RedHat)、WAS、HULFT、JP1、Oracle、LifeKeeperの構築経験(一人称で対応可能な方)

検索結果311件中21-30件