案件内容 |
・データ基盤 Azure上にデータ基盤を構築するプロジェクト。蓄積したデータをBIやAIで活用するためのプラットフォームの設計・構築が主業務となります。要求開発フェーズからご参画いただくことを想定。 顧客案件におけるデータ基盤構築支援(要件定義・設計・構築・テスト・マニュアル作成など) 【案件概要】 例: ①某金融業様向けBIレポート可視化用データ基盤構築(常駐型) ②某大学様向け農業IoTデータ収集分析基盤構築 対象リソース: Azure Data Factory, Data Lake, SQL Database, Synapse Analytics, IoT Hub, Stream Analytics, ADLS Gen2(またはBlob Storage), Azure AD B2C, 等 ①要件定義 ②基本設計 ③詳細設計 ④構築 ⑤テスト設計 ⑥テスト⑦運用マニュアル作成を行います。 |
---|---|
必須スキル | ・Azure PaaS構築経験
・DWH構築経験
・基本設計~製造・テスト経験
|
分析基盤エンジニアの案件一覧
過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。
該当件数:311件
分析基盤エンジニアの案件を探す
- 〜¥700,000 /月
- 分析基盤エンジニア
- 東京都
- コンサル・シンクタンク
案件内容 |
カーライフテックサービスの顧客データを的確に分析するためのデータ基盤の構築をお願いいたします。 ビジネスサイトと開発チームで必要なデータをすり合わせし、構築いただきます。 言語____:Python,SQL DB____:AWS Aurora (Amazon Aurora) FW____: 環境・OS_:AWS (Amazon Web Services) |
---|---|
必須スキル | ・データ基盤の開発経験
・Pythonでの開発経験
・SQLでの開発経験
・データ処理やETL/ELTの経験
|
案件内容 |
データソース→ETL→BIへのデータ連携業務となります。 複数案件があり、タスクベースでアドホックな対応をお願いします。 分析は別スコープとなります。 |
---|---|
必須スキル | ・BIツール経験
・SQL経験
・DB知識
|
- 〜¥700,000 /月
- 分析基盤エンジニア
- 東京都
- コンサル・シンクタンク
案件内容 |
【業務内容】 在庫管理システムを支えるデータ基盤の構築案件となります。 主に、機能改善及び機能追加をご担当頂き、大量データの加工をSQLやPythonを用いて作成し、集計後、データストアに投入する機構の構築に携わっていただきます。 |
---|---|
必須スキル | ・システム開発経験3年以上
・Pythonの実装経験1年以上
・Sparkなどの分散処理システムの経験
・SQLの実装経験(基本的なDDL、DMLに加え、結合、集計、集合、case文、
Window関数などを理解している方)
・データ基盤の構築経験
・アプリケーションの設計経験
・AWSなどクラウド環境を利用したシステム開発の経験
|
案件内容 |
・データ利用部門からのフィードバックを基にしたデータ基盤改善推進 ・データ基盤改善のための要件定義、プロジェクト推進、実開発業務 ・データ基盤の新サービスへの切り替え 【技術環境】 ・開発言語: Python or Scala ・インフラサービス: AWS(EC2, Lambda, Glueなど) ・データベース環境: MySQL、TreasureData、Snowflake ・業務ツール:Slack、Notion、Google Workspace ・その他利用サービス:GitLab、Digdag、Terraform, Ansible、LookerStudio, Tableau など |
---|---|
必須スキル | ・バックエンド/ データエンジニアとしての実務のご経験2年以上
・データ基盤の運用やパイプライン構築のご経験
|
- 〜¥600,000 /月
- 分析基盤エンジニア
- 東京都
- コンサル・シンクタンク
案件内容 |
大手化粧品会社のDXプロジェクトにおいて、SQLを使用してDWHからのデータ抽出を行い、他システムへの自動データ連携設定などの構築をお任せできる方を募集しています。 プロジェクト全体では20名近くのメンバーが参画しており、その中の約5~7名で構成されているチームに所属いただきます。 【業務詳細】 プロジェクト全体を理解した上で、起用しているTreasure DataからSQLで複数のテーブルを結合、サブクエリも含めた詳細なデータ抽出、顧客マスタ・行動履歴・購買履歴といったデータを結合し、マーケティングデータの抽出や顧客のセグメンテーションを行っていただきます。 会員データはすべてTreasure Dataに入っており、新たな会員データも日々追加させていきます。 すでに構築設定したワークフローを読み解き、既存の構築内容を踏襲、改修を行い、SFMCで配信をおこないます。 |
---|---|
必須スキル | ・SQLで複数のテーブルを結合、サブクエリも含めたデータ抽出の経験
・SQLで各データを結合し、マーケティングデータの抽出や顧客のセグメンテーションの経験
・要件定義された内容をもとに設計に必要なドキュメントを作成した経験
|
案件内容 |
客先社内のDBAエンジニアとしてDBの構築・運用などを主にご担当いただきます。 |
---|---|
必須スキル | DBの構築経験 |
案件内容 |
今後の世界的な課題であるエネルギー問題に対するシステム的な取り組みとなります。そのため社会意義の高い要件を新しい技術領域で対応していく事になります。現在、国内の一部地域を利用した分散電源のデータを共有化するためデータ連携基盤の構築が進められております。技術的な背景はクラウド・DWHの技術的な知見が必要となります。業務設計は出来ておりますが、アーキテクチャー設計は出来ていないため、抽象的な要件の非機能要件化を進めて頂きます。 |
---|---|
必須スキル | ・クラウド基盤における知識/実務経験
・技術的に有ると望ましい物
Kafka / AirFlow / Spark等のデータ分析基盤のクラウドエンジニア側での知識/経験
コンテナオーケストレーション(Kubernetes)知識/経験
※重要:DWH(TiDB/Snowflake)の実務経験
|
案件内容 |
GCP構築業務 ・データパイプライン設計構築 ・DWH、データマート設計構築 GCP(BigQuery,Dataflow等) |
---|---|
必須スキル | GCP構築経験 |
案件内容 |
概要: エンドクライアントの分析基盤の設計、開発、運用を担当いただきます ・外部とのデータ連携 ・データ仕様や処理のスキームについての要件擦り合わせ ・AWS S3, Google Cloud Storage, Google Drive と言った各種ストレージと BigQuery 間でのデータの転送処理を Cloud Functions と Airflow を用いて実装・管理 ・IAM の発行・管理、データのアクセスコントロール ・データサイエンティストと意見交換しながら、データの取得や前処理、予測モデル・予測値生成、および抽出のバッチ化・運用 ・データ処理に係るコストのモニタリング、最適化施策 ・データ連携に係るプライバシーマークへの対応 フラットな組織で、自身で物事を推進する文化です。 |
---|---|
必須スキル | ・社内外と的確かつ迅速に物事を相談して進めるためのコミュニケーションスキル
・データベース、処理スキームの設計、運用
・ビッグデータの処理スクリプト開発(大量ファイル・大容量データにおける文字コード変換、文字置換、一括解凍・圧縮等)
・Python, Java, Go, Rのいずれかの言語による簡易なデータ分析スクリプト開発
|
検索結果311件中171-180件