DB/基盤系の案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:700

DB/基盤系の案件を探す

案件内容

HR系のデータサイエンス部署にてレコメンドのアルゴリズム開発実装実務をご担当いただきます

必須スキル
・Pythonを用いた開発の実務経験
・SQLを用いたデータ抽出や加工の実務経験
・AWS等のクラウド環境での開発経験
・Dockerを利用した開発経験
案件内容

データマート業務支援にて以下の業務をご担当いただきます。

・顧客調整
・調査、解析
・開発、テスト
・リリース対応

必須スキル
・データマート開発経験
・AWS環境での開発経験
・Python開発経験2年以上
・DB構築経験
案件内容

【概要】
・医療従事者向けポータルサイト上で展開されている医師を対象としたアンケート・調査
・ビジネス領域※及びプロモーション配信サービスの領域において、社内向け各種ダッシュボード・社外向け(クライアント向け)ダッシュボードの要件定義及び開発を担当

【業務内容】
・ダッシュボード開発要望のヒアリングと詳細要件定義、画面設計
・Tableauダッシュボード実装
・ダッシュボード実装に必要なデータマート整備(DB整備自体はエンジニアが担当するためエンジニアに対する要件提示)

必須スキル
・SQLを用いたデータ処理業務を2年以上経験していること(複雑なSQL処理ができること)
・BIツールでダッシュボードの要件定義・開発業務経験
案件内容

GCP上に構築したデータ分析環境の機能改善と運用を担当するメンバを募集しております。
既存ML基盤の Kubernetes 化や CI/CD Pipeline の整備等、基盤のモダナイズを推進しており、設計・構築・運用の面でチームの一員としてご活躍いただける方を募集しております

作業概要:
・クラウド環境におけるビッグデータ処理基盤の改善及び運用
・具体的にはGCP BigQuery を中心とした分析基盤に関して、以下のような運用業務を対応いただきます
・Terraformで組織内の権限付与業務、インスタンスの作成
・Ansdibleでサーバーの設定
・GCPのプロダクトやOS、様々なEOSL対応
・業務時間内(10:00-19:00)の障害検知・障害対応、など
・慣れてくれば初めて使用するミドルウェアやツールの検証・導入計画・設計・装着などもご担当いただくこともあります。

必須スキル
・[重要] GCP、AWSを含むクラウド環境の構築、実運用経験
・インフラの運用として決まった手順を実施するだけでなく、手順の確立や検討のご経験がある方
・awsのec2,s3,LBを使ってました程度だと難しいです
・Linuxベースのシステム(DBなどのミドルウェア含む)の経験3年以上
・シェルスクリプト以外のプログラム言語1種類以上の経験(ある程度でよいです)
案件内容

・デジタルマーケティングを用いて、キャンペーン、集客を行っていくPJ
・電力会社の自社媒体におけるデジタルマーケティング施策の入稿実務及び、データ抽出・処理・設計

必須スキル
・分析経験(マート設計構築、Google Analytics/Python、SQL)
・DB経験
・Google Analytics/Adobe Campaign/BigQuery等の業務使用経験
案件内容

顧客内の情報を一元的に管理・可視化する、データ分析基盤の開発支援です。
チームメンバーと共に試行錯誤しながら業務を進めていただきます。
下記業務をご担当いただく予定です。
・データソースの収集
・S3への蓄積
・AWS Glueを使用したデータ加工
・外部ツールからのデータ収集/外部ツールへの加工データ連携
・QuickSightを使用したデータ集計
・データ加工の自動化(Lambda、StepFunctionを想定)
・terraformを利用した構成管理(Glueのジョブ、IAMロール、S3
、Quicksight)

必須スキル
・BI/ETLツールを使用したデータ分析の経験
・AWSサービスの経験(AWS Glue、Quicksight など)
・SQLによるETL(データ加工)の経験
・新しい技術の導入に積極的な方
案件内容

【概要】
電気小売事業者のDX推進室で、分析基盤に収集、蓄積されたデータの利活用、分析支援を実施

【業務内容】
他部署/グループとコミュニケーションをとりつつ、業務課題のヒアリング、改善案・分析案の提示、効果測定、運用サポート
・BIツール(Looker)を利用したダッシュボード構築、SQL/LookMLによる操作

必須スキル
・基本的なSQL操作ができること。
・Lookerの経験(ダッシュボード構築 / ダッシュボード運用/機械学習モデルの開発 等の経験)
・BigQueryの利用経験
※Looker、BigQueryどちらかのキャッチアップ前提でも可
・Gitの利用経験
・設計書等ドキュメント作成、読解(仕様把握、キャッチアップ)ができること
案件内容

データユーザーの要求から的確なデータとフローの設計を行い、パイプラインの構築やパイプラインを動かすデータ分析基盤の運用保守を担当いただきます。

技術要素(★が特に重要)

  • ETL/ELTツール
  • Embulk★
  • digdag
  • BIツール
  • Redashなど
  • GoogleCloud
  • Cloud Storage★
  • BigQuery★
  • Cloud Monitoring / Cloud Logging
  • その他
  • Git
必須スキル
・データ分析に関わる開発実務経験(SQL/Pythonなど)
・データモデリング力とバッチ設計能力が高い方
・高度なSQL(CTE、副問い合わせ、Window関数の利用など)の知識
・Linux / ネットワークの基礎知識
・運用リーダーとしてのタスク管理や運用業務改善の経験
案件内容

・お客さんのニーズから要件をリードして、お客さまとデータエンジニアリング、アナリティクスの議論をしながら、ビジネス設計をする。

必須スキル
・Power BI Essentials、GCP、BigQueryの経験。
・Snowflakeへの移行を経験。
・データレイクを活用した需要予測
・データ作成~レポーティングまでの分析を経験。
案件内容

現在国内エネルギー系⼤⼿企業がエンド顧客となるデータ基盤構築PoCプロジェクトが進⾏中。
PoCを通してインフラアーキテクチャの策定、⼤まかなデータパイプラインのフローを策定した9⽉以降の本番環境構築では、インフラ構築からセキュリティ対応、より多くのデータパイプライン構築を予定しており、データエンジニアの拡充を⾏っている。

データ基盤要件定義
データレイクに保存するデータの形式の洗い出し (CSV, JSON, 画像ファイ
ル etc…)
データソースのインターフェイス特定 (REST API, FTP etc…)
データ加⼯(ETL)要件ヒアリング
データレイク設計 (Hadoop File System)
DWH設計/テーブル定義 (Apache Hive, Spark, HBase etc…)
データフロー設計 (Apache NiFi)
バッチアプリケーション作成 (Java, Shellスクリプト)
インフラセキュリティ対応 (SSL化対応、AD認証連携 etc…)

   

環境
オンプレサーバー (現地作業等は無し、リモートから接続)
OS: RHEL8HPE Ezmeral Data Fabric (Hadoop, Hive, Spark, NiFi etc…)
データ分散処理基盤にまつわるpache系OSSをまとめたパッケージ製品
(サポートが付くだけのようなイメージ)
HPE Ezmeral Runtime (≒ Kubernetes)
OpenShift等に⽐べ、より純正Kubernetesに近い
構成
データレイク: HDFS, minio(≒S3), HBase
DWH: Hive or Spark
ワークフロー: NiFi or Airflow
データ加⼯: Hive, Spark (シェルスクリプト/Java or Python)
BI: Tableau, Palantir (本募集スコープの作業範囲外)
体制
アジャイル開発 (スクラム)
メンバー10名程度
デイリーで午前にスクラムミーティング有り

必須スキル

3年以上のバックエンドまたはインフラ開発経験

検索結果700件中251-260件