DB/基盤系の案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:804

DB/基盤系の案件を探す

案件内容

・データ分析基盤の大規模な、追加開発・改造を実施予定。・DWH設計者(データ設計など)もしくは、DWH基盤構築(ツール設計など)

必須スキル
・データウェアハウス構築経験者
・データレイク+データウェアハウスを使ったデータ分析基盤構築経験者
案件内容

業務:プロダクトの分析業務を支える基盤の機能拡充ならびに運用自動化に関わる開発を担当いただきます。・データウェアハウスへのデータ連携を含む、データ基盤で動作するETL処理の開発・データパイプラインを管理・運用・監視する仕組みづくり・取り扱うデータのセキュリティやガバナンス対応・各種運用業務の自動化とドキュメント整備
環境:プログラミング言語: Python, SQLバージョン管理: Git/GitHubデータ分析基盤、環境: AWS, SnowflakeETLツール: trocco, Airbyte, dbt(導入準備中)IaCツール: TerraformBI: Redash, Google Spread Sheet, Looker Studioコミュニケーション: Slack, ClickUp, Notion

リモートワークをベースとしていますが、週1日程度出社日を設けています。週5未満の場合でも、出社日、スクラムイベントのため火曜は勤務日となるようお願いします。

必須スキル
・データ基盤技術の基本的な理解(OS, RDBMSなど)
・データウェアハウスの設計とETL処理の開発経験
・Pythonなどのスクリプト言語を用いた開発経験
案件内容

・データ連携案件管理:データ供給元からデータ利用者のために日程調整や管理業務・基盤構築:事業要請に応じたデータレイク,データウェハウス,マートの実装,テスト・基盤移行

■営業担当からのコメント■Pythonでゴリゴリコードを書くというよりも、基盤移行やマート管理等、管理系の業務が主となります。

必須スキル
・リーダー経験
・SQLを理解し,DDLやDMLを使いこなせること(最低でも相関サブクエリやGROUP BY,HAVING句が使用できる)
・pythonを用いたコーディング経験が1年以上(C#, javaなどの高級言語での経験でも可)
・AWS Redshift,Glue,Lambda等を用いた分析環境構築・運用経験が1年以上
案件内容

クライアント社内で運用している需要予測・発注数量最適化ソリューションにおけるデータパイプライン、MLパイプラインの運用、エラー発生、顧客問い合わせ時の初動調査のご担当をいただきます。複数のクライアントの運用を行っており、各パイプラインの運用、さらには、将来的にはその開発まで対応を可能な方を期待しています。

必須スキル
– GCP (BigQuery, GKE, Composer)
– Docker
– Airflow
– python
MLOpsの経験
Pythonを使ったデータ分析の経験
案件内容

最先端タクシーサービスに蓄積されたデータを用いてデータ解析や機械学習モデルの改修を行っていただきます。
【環境】 言語____:Python,SQL DB____:BigQuery FW____:Django 環境・OS_:GCP (Google Cloud Platform)

必須スキル
・PythonおよびDjangoの利用経験が2年以上あること
・機械学習モデルの提案/構築/評価/デプロイ/改善の実績があること
・Bigqueryを用いた分析業務やSQLを用いたDB対応の経験が2年以上あること
案件内容

大手通信企業が提供するポイントサービスが保有し、1,000万人以上の登録者を抱える公式LINEの登録者拡大、関連サービスへの送客・収益化をミッションとしたLINEの運用業務になります(体制:PM1名, 分析担当2名, 運用者 3名)大手通信会社の保有する数千万の会員IDとLINE IDを突合し、LINEを起点に顧客ARPUを最大化していただく業務を担当していただきます。分析担当者の主な役割としては、月間20件ほどのLINE配信業務にともなう配信結果の集計・分析において、大手通信会社の保有する会員IDと突合した顧客行動分析になります。加えて、サービスを横断した顧客ARPU最大化のため、LINE登録者の各サービス内の行動分析を行い、LINE配信PDCAを実施いただきます。※今回、TONARIWAというツールを用いて社内の会員基盤とLINEを連携させた配信を実施します。LINE上の基本的な行動ログはTONARIWAで取得できる想定なのですが、場合によっては生ログデータをLINEから抽出し、会員基盤のデータと突合いただく業務が発生いたします。

必須スキル
・大規模データ集計・分析業務(web、顧客、購買データ)
・ダッシュボード構築(Google Looker Studio,Tableau)
・公式LINE運用に関わる業務(LINE API活用経験)
・CRM運用経験(Salesforce, HubSpotなど)
・5名以上のプロジェクトチーム参画
 
・GoogleAnalytics(UA,GA4)
・SQL, BigQuery
・Salesforce、Hubspot、MarketoなどのCRMツール
・スプレッドシート(Excel、Googleスプレッドシート)
案件内容

■概要GCPでサーバレスシステムを作るべく、開発を進めておりGCP、Kubernetesの設計~構築をしていきたい。GCP、Kubernetesを基盤とし、Node.jsなどいくつかフレームワークを上物としている状況。

必須スキル

・GCP、Kubernetesの設計~構築の経験

案件内容

・モダンなUIUXで使いやすいWebベースのレセプトシステムの新規開発に伴うサーバーサイドの開発に従事していただきます・インフラはAWS想定でフロントエンドおよびサーバサイドを開発する・サーバサイド(API, Batch)はSpring Boot・フロントエンドはReactを想定(今回募集ポジションではフロントをご担当いただくことはありません。)

必須スキル
・業務システム開発経験 2年以上
・Javaでのプロダクト開発経験
・Springを用いた開発経験/知見
・JUnitを用いたテストコード実装経験
・REST APIの設計経験
・新規システム開発経験有
※全て満たさなくてもご相談ください。
案件内容

【業務内容】①ソリューションの提案• CSやBiz、品管の業務課題に対し、AI/MLで解決できるものを洗い出しソリューションを提案する•データ分析を元にソリューションを提案する。②モデルの開発• ヒアリングした内容や発見した課題に対し、モデルの作成③システム化• 必要なバッチ、APIの作成(歓迎要件)• システムへの落とし込みや落とし込むための支援④PoCの実施• KPIに対して有効なモデルの検証⑤既存モデルの保守・改善• SEMで過去開発したモデルのアップデートや改善
【開発環境】・開発言語:Python, Ruby on Rails・インフラ:AWS, GCP・機械学習ツール:Amazon SageMaker、Jupyter Notebook・データ分析:BigQuery, DOMO, Redash, Amazon RDS・CI/CD:Jenkins, CircleCI, Capistrano, Github Actions,・コードリポジトリ、レビュー:Git, Github, Gitlab

必須スキル
• Python, SQLの経験がある方
• 機械学習に対する幅広い知識(画像、自然言語、テーブルデータ)
• 実務としてモデルを開発し、運用まで落とし込んだ経験
• 高いコミュニケーションスキル
• 能動的に行動できる方
案件内容

■概要車両走行データのデータ集計・加工/BIツールへの連携や、既存環境についてはSnowflake DWHでデータ集計を行い、BIツール(Tableau)に集計結果を連携。ヨーロッパリージョンとの分析に向けたアーキテクチャーの方針と分担を策定する想定で、策定した方針に基づき、ヨーロッパリージョンの車両走行データの分析・可視化を行うため連携先とIFの調整、データ設計を行う。

必須スキル
・ビジネスレベル英語
・関連部署と調整経験
・データ連携周りのIF整理、調整業務経験
・Tableauの開発経験

検索結果804件中631-640件