単価100万円以上の案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:872

単価100万円以上の案件を探す

案件内容

膨大なSNSマーケティングデータを扱うtoB向けSaaSプロダクトのML開発業務をご担当いただきます。
主に、以下内容を想定しています。
・ML開発業務全般
・Webエンジニアと協働したプロダクトへの適用

【開発環境】
・言語:Python
・フレームワーク:PyTorch/ PyTorch Lightning/ TensorFlow/ Keras
・環境:Jupyter Notebook / Colab Pro + / BigQuery / GitLab / Slack / Zoom / Tandem
・貸与マシン:MacBook Pro

【開発手法】
プロジェクトごとに選択、アジャイル、スクラム、チケット駆動開発、コーディング規約あり

【働き方】ほぼリモート中心。コミュニケーションツールはZoom / Slack / Tandem / Discordなど。

必須スキル

・自然言語処理(NLP)に深い造詣、経験を有していること
・機械学習を利用した自然言語処理を用いてサービス開発を行い、リリース後も品質向上を行った もしくはこれらをリードした経験
・Pythonでの研究や開発経験、特にPyTorch/TensorFlow/scikit-learn/Keras等のライブラリやフレームワークを用いた開発経験

案件内容

【概要】
データエンジニアとしてDMP及びCDP導入案件や顧客の分析要件に基づいたデータ抽出環境整備における構築業務を担っていただきます。
多数のプロジェクトがあり、適性なものにジョインを想定しております。

【環境】
SQL,Python,Git

【業務】
・CDP及びDMPの設計/構築/運用
・各種DB、分析ツールを連携させたデータ管理、分析環境の構築
・データマートの設計/構築/運用
・クライアントとの細部仕様調整

必須スキル

・SQL
・TreasureData/GCP/AWS等のクラウドDWHの構築経験

案件内容

【募集背景】
・人員不足
・サービス力向上

【案件概要】
現在エンジニアスキル不要のフルマネージド型分析SaaS(機械学習が組み込まれている)を開発しており、そこにおけるデータサイエンティストを募集しております。
サービスとしてはデータの可視化や分析が出来るもので、競合イメージとしてはTableauやGoogle データポータル等です。
現在は可視化や分析までのサービスとなりますが、今後はサービスを使う営業の方が「次にどういった事を行えば受注率が上がるのか」、「いつ決裁者へアプローチすべきか」等、データドリブンにサービスを使えるようにしていきます。

【業務内容】
・MLモデル構築
・ML/DL技術を用いた新機能開発
・実装もスコープに入る可能性あり

必須スキル

・Python
・Pandas

案件内容

エンターテインメント系クライアントの
データ戦略部にて下記業務をお願いする想定になります。

【業務スコープ】
・具体的には先方が誰かに伝えたい資料から、本来伝えるべき内容に情報を再整理して資料化する案件です。
・その他室長が担う業務のサポート業務

必須スキル

・資料作成スキル(PPT)
・論理的思考力

案件内容

全国の入札情報を一括検索・管理できるSaaS Webサービスを展開している企業内で、機械学習エンジニアを募集しております。
具体的な業務内容としては以下の通りです。
・モデル開発に必要なデータの洗い出し
・モデル開発のための検索的データ分析(EDA)
・モデル開発のための特徴量選定
・モデル開発のための機械学習手法選定
・構築したモデルのハイパーパラメーターチューニング
・開発したモデルのオフライン性能検証
・オフライン性能検証結果のレポーティング
・本番環境下の推論結果提供用のAPIサーバー構築
・システム稼働後の機械学習モデルの精度モニタリング
技術環境:
・分析基盤:未定
・統合分析環境:SageMakerもしくはVertexAI
・BIツール:未定
・CI/CD:CircleCI
・コンテナ技術:AWS ECS/Fargate
・ワークフローエンジン:AWS Step Functions
・監視ツール:Datadog/CloudWatch
・インフラ構成管理:Terraform
・コード管理:GitHub
・ツール類:Slack

必須スキル

★データサイエンス領域
・データ分析、データ特性に合わせたクレンジング処理の経験
・サービスやビジネス要求に合わせた特徴量選択の経験
・サービスやビジネス要求に合わせた手法選定、精度評価の経験
・精度向上のためのハイパーパラメーターチューニングの経験
・自然言語処理の経験
◆エンジニアリング領域
・機械学習モデルの開発し、プロダクトに組み込んで運用した経験
・レポーティング経験

案件内容

・グループ全社のデータパイプライン設計・実装及び実装委託
 (APIやパブリックデータの取得/整備)
・DWH管理業務 (欠損,Issue,申請等の対応)
・技術調査

【業務スコープ】
・Google Cloud Platformをバックエンドとするデータ分析基盤の開発・運用
・データ分析基盤と各事業部が有するデータを活用するための開発・運用
・データ分析基盤にデータを収集するETL/ELTパイプラインの開発
・データ分析基盤でデータを集計するワークフローの開発
・上記を継続的に利用するための、ソフトウェアのバージョンアップや周辺ツールの開発(運用)
・技術調査

必須スキル

1. 複雑なSQLを用いたデータ抽出経験
2. Go、Java、Pythonなどを利用した開発経験
3. ETL/ELTのデータパイプライン設計/構築
4. ワークフローの構築経験(Digdag / Airflow etc.)
5. 監視ツールの導入・運用経験
6. Infrastructure as CodeおよびCI/CDの経験
7. コンテナ技術(Docker/Kubernetes)を用いた開発経験
8. GCPでの開発経験
9. データマネジメント(DMBOK)に関する理解や実践経験

案件内容

【プロジェクトの目的】
D&O保険(役員賠償保険)向け保険料プライシングツールのために、下記の分析・モデリングを行う
(1) ESGファクターを考慮したリスク予測モデルの開発(チューニング)
(2) 上記モデルで予測したリスク確率とは別に、個別にプライシング調整を行うためのリスクファクターに関する分析
(1)については、昨年度に一度、別の目的変数を用いたモデル開発を行っており、説明変数の加工等はスクリプトを使い回せる部分も多いと想定。

  1. 使用するデータ
    TSR(東京商工リサーチ)の企業情報やネガティブデータ
必須スキル

・Pythonを用いて、データの加工・可視化、予測モデル構築(重回帰分析、ランダムフォレスト 等)が可能。

案件内容

主にスマホゲームをドメインとした事業会社にて、
「IP(知的財産)単位でのロイヤリティ向上」を追求する、プロダクト横断or単体でのデータ分析業務

※例1:webサービスのKPIマネジメント、アドホック分析
※例2:反実仮想機械学習による、「スマホゲームの声優ライブ」が「ゲームのKPI」をどうリフトアップするかの推定

【業務スコープ】
(a)KPIマネジメント (& 分析PJマネジメント)

(b)アドホック分析

  • (1)要件定義
  • (2)分析設計
  • (3)分析
    • GCPリソース(ローカルでも可)を利用しての分析環境構築
    • SQL、PythonでのEDA(探索的データ解析)
    • 統計モデル、機械学習モデルの構築
  • (4)ステークホルダー向けの分析レポーティング
必須スキル

・データサイエンティストないしデータアナリストの経験5年以上
– 「想定業務内容」の(a)(b)のご経験がmust
・SQLでの探索的データ解析
・マーケ系の分析
・不明確なデータ構造を扱う場合も、キーや項目値からあたりをつけ、(制約はつくものの)既存データから整合性を担保する形でアウトプットできるスキル

案件内容

データを用いた意思決定や課題解決に活用するため、各事業・プロダクト・サービスの全てのデータを一元的に収集・保存・管理するデータ基盤の構築を担うポジションです。

データ基盤の開発・改修・保守運用
・データ基盤の物理・論理データモデル設計・開発・保守運用
・データ基盤のシステムアーキテクチャの設計
・データパイプライン (ETL) の設計・開発・保守運用

[開発環境]
インフラ:GCP (データ基盤) / AWS (関連システム)
データパイプライン (ETL):CloudComposer (Airflow)
DWH:BigQuery
その他インフラ管理:Docker、GKE / GAE / CloudRun
可視化ツール:Google Data Portal / Tableau
分析環境:Jupyter Notebook / Google Colab / Google Cloud ML
その他:GitHub / Slack / Notion

[チーム体制(業務委託の方含む)]
・統括ディレクター: 1名
・データエンジニア: 1名
・機械学習エンジニア: 1名 (兼務)
・データサイエンティスト: 3名
・技術顧問: 1名

必須スキル

エンジニアリング
・GCP や AWS などの主なクラウドサービスにおける開発経験。
・DWH や業務系などのデータベースの設計・開発・運用経験。
・データパイプライン (ETL) の設計・開発・運用経験。
・基本技術情報試験レベルのコンピューターサイエンスの知識。
データ専門性
・SQLを記述する事が出来る。 (数十行位) 
・基礎集計を通じてデータの全体像や質を確認することができる。
ビジネス
・事業会社における情報システム企画の経験 (どんなシステムがどんな処理をどんな順番で実施するかの要件定義レベル)
・論理的思考力。 (定量思考力、要約力、仮説構築能力など) 
・ドキュメント作成能力。 (見栄えではなく、構成の組み立て方やわかりやすさが担保出来るか)
・プロジェクトマネジメント能力 。 (完了定義。スコープ策定。制約を考慮した優先度決定。タスク洗い出し)

案件内容

・BIツール(Tableau)を使用してのデータ整理
・データ分析基盤のテクニカルサポート
(・データ分析の戦略構想)

必須スキル

・BIツールを使用した経験
・ダッシュボード構築の経験
・英語(ライティング、リーディング)
・ベンダーコントロール
・データ関連の知見
・複数名のステークホルダーとの調整経験

検索結果872件中651-660件