DB/基盤系の案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:700

DB/基盤系の案件を探す

案件内容

2024/5よりクライアントの営業改革領域向けのDX化実現に向けた構想策定を推進中
・2024/8より『SFA』『BI』領域を並行して要件定義工程に入る予定

『SFA』領域においてSalesforce有識者に助力いただきたく、まずは要件定義を推進するにあたり、3-4名程度のリードエンジニアのアサインを相談したいと考えておりそのエンジニアの方と連携しクライアントのPOSデータ等をTableauやSalesforceへ連携していただける方を募集しております。

必須スキル

・AWS上のSnowflakeの知見を有し、DataSpider等を用いて、SalesforceおよびTableauへの連携周りのTo-Be像を定義し構築いただける方。

案件内容

基幹システムからGCPへの取り込み処理およびGCP内でのデータマートの開発運用保守を実施
・データエラーカバー等

必須スキル
– SQLによるデータ加工経験(とくに複数テーブルの結合~加工)
– データマート作成経験
– GCP/AirFlowよるバッチ処理経験
案件内容

・大手エンターテインメント企業において、親会社が運営するゲームタイトルのデータを、
データレイクに格納するデータパイプライン構築の業務がメインとなります。

・増員のための募集ですが、チームを技術で引っ張ることのできる中堅レベル、リーダポジションとなれる方をお願いしたいと考えております。

内容や案件はゲームタイトルのスケジュール等に依存するため、
ゲームタイトル以外のデータパイプライン構築や、社内システムの構築をお願いする可能性もございます。
(Webサイト等その他サービス)

※お願いする可能性のある業務スコープ例

・データ分析基盤の開発・運用
データを収集するETL/ELTパイプラインの開発
運用体制構築のためのルール・ドキュメント整備
・上記を継続的に利用するための、ソフトウェアのバージョンアップや周辺ツールの開発(運用)
・技術調査

GCPを採用しており、GCP系リソースを中心に活用します。(BigQueryなど)
インフラ管理:terraform
パイプライン構築:Airflow(Cloud Composer)、Argo workflow、SaaSであるtrocco等

必須スキル
1. SQLを用いたデータ抽出経験
2. Go、Java、Pythonなどを利用した開発経験
3. ETL/ELTのデータパイプライン設計/構築
4. ワークフローの構築経験(Digdag / Airflow etc.)
5. 監視ツールの導入・運用経験
6. Infrastructure as CodeおよびCI/CDの経験
7. コンテナ技術(Docker/Kubernetes)を用いた開発経験
8. GCPでの開発経験
9. データマネジメント(DMBOK)に関する理解や実践経験
案件内容

【概要】
・PCIDSSのクラウド化をメインに、オンプレからAWSへのリプレイスを担当
・現時点では「オンプレからクラウドに移行する」というところを掲げており、
AWSのSA、セキュリティ部と会話しながら進めていきくため、ご自身で設計や方針を決めながら進めていただく予定

必須スキル

・Terraformでのクラウド環境(AWS) 構築/運用経験 : 3年以上
・バックエンド(API, Batch)の開発経験:3年以上
・システムの運用保守経験:3年以上
・複数のプログラミング言語を使った開発経験がある
・RDBMSの利用経験 – 経験や得意分野が職務経歴書に記載されている
例)自己PR, 具体的な作業内容や学び

【求める人物像】
・積極的にコミュニケーションが取れる
・課題を見つけて、分析、提案、解決することに興味・関心があること
・チーム開発での経験 – 直近の開発経験に関して説明できる
・利用している技術に関して良し悪しが説明できる
・アーキテクチャ、実装について解説ができる

案件内容

某小売企業向けの基幹システムの開発案件のメンバーを募集しております。

必須スキル

・Bashを使用した開発経験
・DB周り(SQL、性能改善)
・基本設計以降一人称

案件内容

[データエンジニア職務]
・収集対象:ECサイト
・データ分析基盤の開発・運用
・データを収集するETL/ELTパイプラインの開発
・運用体制構築のためのルール・ドキュメント整備
・上記を継続的に利用するための、ソフトウェアのバージョンアップや周辺ツールの開発(運用)
・技術調査

必須スキル
・SQLを用いたデータ抽出経験
・ETL/ELTのデータパイプライン設計/構築
・Infrastructure as CodeおよびCI/CDの経験
・ワークフローの構築経験
・Pythonなどを利用したアプリケーション開発経験
・GCPでの開発経験
・コンテナ技術(Docker)を用いた開発経験
案件内容

機械学習モデルをより素早く安定的にデプロイできるようなCI/CDパイプラインの構築や、
効率よくデータを捌くためのミドルウェア開発、インフラ構築

▼業務内容
・ビジネス課題と要求の整理(案件の要件定義をPMと行える=足りない情報が何かを定義し、自身で要求できる)
・機械学習ワークフローの設計/開発/運用
・データ提供のためのAPI設計/開発/運用(アプリ開発側との連携)
・機械学習モデルをより素早く安定的にデプロイできるようなCI/CDパイプラインの構築
・運用体制構築のためのルール・ドキュメント整備

必須スキル
・SQLを用いたデータ抽出経験
・ETL/ELTのデータパイプライン設計/構築
・Infrastructure as CodeおよびCI/CDの経験
・ワークフローの構築経験
・Pythonなどを利用したアプリケーション開発経験
・GCPでの開発経験
・コンテナ技術(Docker)を用いた開発経験
案件内容

【概要】
・データアナリスト業務を担当
-KPI可視化(経営管理/事業管理)
-売上進捗、EC注文状況をダッシュボード化
-データ集計/アドホック分析、記述統計的分析

【開発環境】
・SQL
・BigQuery
・Trocco
・Google Spread Sheet,Looker Studio, Redash

必須スキル

・SQLデータ抽出・データ分析の業務経験2年以上
・以下のいずれかの経験2年以上 
-分析結果を踏まえたご提案&レポート作成(ドキュメンテーション) 
-BIツールを用いたダッシュボード構築 
-DWH(データウェアハウス)/データマート設計構築

案件内容

【概要】
・SNS等の投稿データやアカウントデータを分析して市場調査・分析
(中期でLLMモデルが必要と想定している)
・機械学習等のモデル:AI等を通して、他のアンケートと出ている情報を比較して、データの正確性の評価

【ポジション】
・データサイエンティスト
・データエンジニア

必須スキル

【データサイエンティスト】
・データ分析の実務経験がある (2年以上)
・主にPythonを用いたデータ分析
・Scikit-learn, NumPy,
Pandasなどのライブラリを用いたデータ分析、統計、機械学習モデリングの経験
・Tableauを用いて分析結果などのレポーティングなどを行った経験

【データエンジニア】
・データ分析基盤あるいはサーバーサイドの開発実務経験がある (3年以上)
・主にPython, Java, Scalaなどの言語での開発経験がある
・AWS/GCPを使ったシステム開発を行った経験がある
・Airflow, Athena, Redshift, ECS/ECR,
snowflakeなどを利用したシステム開発を行った業務経験がある

案件内容

■案件概要
 某社の顧客データを活用したマーケティングを行い、
 顧客に最適な広告・クーポン・キャンペーン情報を配信する基盤を構築する。
 構成(予定)は以下の通り。
 ・広告入稿用 Web フロントエンド (広告運用者がアクセス)
 ・広告用 API サーバー
 ・Data Pipeline
  
■作業工程
 広告配信基盤 要件定義/設計/開発/テスト

■使用予定技術
 Cloud:AWS
 言語 :Python,Typescript、Kotlin
 フレームワーク:React、NextJS、expressjs、TypeORM、pandas
 その他:terraform、kubernetes、Snowflake、dbt、dagster

必須スキル
・WEBアプリ(フロント/バックエンド)開発経験3~5年以上
・PythonやTypescriptなどスクリプト言語開発経験
・コミュニケーションスキル
・何らかのクラウド環境での開発経験

検索結果700件中61-70件