単価80万円以上の案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:1871

単価80万円以上の案件を探す

案件内容

大手メーカーのデータエンジニアとして、データ資産活用およびデータ民主化を見据えながら、事業課題を特定しデータ分析案件を推進いただきます。データ分析に必要な処理の自動化および効率化を実現するための大規模なデータ分析基盤の構築/運用を自らドライブする経験を得ることができます。

データ活用最大化のための分析基盤の構築/運用
データ民主化を実現するための仕掛けづくりと啓蒙/教育
ID-POSやパネルデータを用いた顧客インサイトの抽出
協力会社やIT部門に対するコントロール及びコラボレーション

<データ分析案件の例>
・全社統一KGI/KPI指標の設計および提供
・チャネル×価格帯でのBiz Opportunity分析
・ブランド中期計画のためのプロモーション効果検証
・離脱者&再購入者の分析
・情緒的価値観の指標化

必須スキル

・自ら課題を定義/提案し、解決策の実行まで責任もって取り組める
・幅広く知識/経験を吸収し、プロフェッショナルとして専門性を高める意欲がある
・データエンジニアとしての実務経験を1年以上有する
・Azure/AWS/GCPのいずれかを用いたデータ分析基盤の構築/運用経験がある
・データマネジメント(モデリング/加工/カタログ/品質管理など)の経験がある
・基本的なSQL言語を記述できる
・テクノロジー動向に興味がある

案件内容

エンドユーザー(企業)のDX化を支援するためにデータ事業の展開や社内のデータ利活用を推進する、ETL/ELT処理開発、DWH構築などのデータ基盤開発の責務を担っていただきます。
◆業務内容の詳細◆
Databricks、Airflow、AWS Glueを利用したデータパイプラインの開発・運用
Apache Sparkを利用したETL処理の開発
各サービス開発チームのデータエンジニアリングの支援
◆今後の進展について◆
昨年夏頃にDatabricksを導入したばかりのため、既存基盤からの移行を実施し、全社横断データ基盤として活用していきます。
それに伴い、各サービス開発チームを中心とした分散オーナーシップ型データ基盤開発組織化の推進と全社横断的なデータマネジメントに注力していきます。

必須スキル

・サーバーサイドのアプリケーション開発経験
・AWS/GCP/Azureのいずれかのクラウドサービスを利用した経験
・データレイク、データウェアハウスの設計・構築・運用経験
・ETL/ELTなどのデータワークフロー管理ツールの開発・運用経験
・チーム開発経験

案件内容

■背景■
食品通信販売における需要予測のリリースを行う上で、現在机上でのシミュレーションではなく、実際の状況下で未来のデータを予測する実地検証フェーズにある。その中で事業部からの改善要望が多数挙げられており、現在のデータサイエンティストのリソースでは十分に対応しきれず、リリースに至るクオリティのモデル構築が難航すると想定されるため、新たにリソースが必要となった。

■課題一例■
・商品IDが分析観点で作られていない
・年末やGW等に特殊な動きがある
⇒変動が多い時期に予測しきれていない

■やること■
前需要予測における改善要望(商品IDの名寄せや長期間でのモデル机上検証などのモデルの課題を解決してほしい。ものによっては具体的な要件を元に特徴量エンジニアリングに落としてほしいというものもあるが、課題のリストアップに終わっているため自ら具体的な特徴量エンジニアリング/モデリング改善方法を考えていただくものもある)をもとに、SQLを用いたデータ抽出、Pythonを用いたデータの加工・結合、特徴量エンジニアリング、およびその検証結果の報告

必須スキル

・SQL
※SELECT、WHERE、JOIN、GROUP BYが可能なレベル(window関数までは不要)
※分析に必要なデータ抽出SQLの元はクライアントメンバーが作成するため、深いDWHの理解や高度なSQLは必要とされない。
※必要に応じて自分でデータ集約を行うぐらいは必要

・Python
※3年以上のコーディング経験
※基本的にはJupyter Notebook上でのモデル開発になります

・特徴量エンジニアリング
※ValidationなどのMLモデル生成プロセス全体についての理解と経験、ラグ特徴量、集約特徴量、エンコーディング等を行いながらモデルを構築した経験。こちらが一番必要なナレッジです。特に時系列モデリングにおける特徴量エンジニアリングの経験があればベストです

案件内容

データサイエンティストが構築したモデルを実際の機械学習のプロダクションシステムに落とし込む作業をお願いいたします。

【詳細】
・MLアプリケーションPoCのプロトタイプの開発
・機械学習APIサーバーの設計/構築/運用または実装
・サービス監視設計/運用

必須スキル

・クラウド上でのPythonを用いたソフトウェア開発経験
・機械学習などの大規模データを扱うバッチ処理、ワークフローの開発/運用経験
・MLOpsの企画/設計/開発/運用経験

案件内容

複数AIプロジェクト内で適性にあった自然言語処理のエンジニアとして参画いただきます。

業務
・顧客折衝、要件定義(適正によって)
・モデル設計、構築
・ドキュメント作成

開発環境
・言語:Python
・Deep Learningフレームワーク: PyTorch
・OS:Linux

必須スキル

・Pythonを用いた開発経験
・Git等開発ツールの知識と実用経験
・自然言語処理の専門性や研究実績
・チーム開発に必要なコミュニケーション能力

案件内容

概要:
アミューズメント系企業においてOpen CVやYOLOを使用し物体の軌跡や画像のある一面を認識、検出するモデルのブラッシュアップをお任せします。

体制:
3人体制

環境:
ubuntu
CUDA
OpenCV
YOLOX
PyTorch

必須スキル

・OpenCVやYOLOの経験

案件内容

概要:
金融業のDXにおいて、データアナリストとしてアサインいただきます。

業務スコープ:
・データ集計、可視化
・KPI設計、施策立案
・分析、ドキュメンテーション
・効果検証

必須スキル

・金融業界の分析経験 ・KPI設計のご経験 ・SQL、Pythonを用いたデータ抽出加工の経験 ・役員、ステークホルダーへのアウトプット経験

必須スキル

[ML/MLOps系の記事の場合]
(※下記はエンジニアに求める要件です。イメージのため)
・CI/CDの経験(Github Action)
・Pythonなどを利用した開発経験
・GCPでのインフラ開発経験(GCS、BigQuery、Vertex AI、Cloud Dataflow、Cloud Bigtable、GKE、Cloud Composer)
・監視ツールの導入・運用経験(Cloud Monitaring)

[データサイエンス系記事の場合]
(※下記はデータサイエンティストに求める要件です。イメージのため)
・SQL/Python
・(want)時系列因果推論
・(want)反実仮想機械学習

案件内容

・未来都市で生活される人達のヒューマンモデリング、思考推定をします。
・モデルやデータ等はなく、これを実現するためにこのデータが必要→このようにすればそのデータが取れる等の検討段階から参加していただきます。
・テキスト情報からの評判分析(感情分類や評価文抽出など)
・テキスト情報からのトピック抽出(重要語抽出)を想定しています。
例えば、SNSなどの投稿から「食事画像と投稿文を抽出し、画像のメニューとその評価を抽出する」ような開発です。
チームメンバーに外国籍の方も多くいらっしゃるので、英語に抵抗なく稼働していただける方を探しています。

・データクレンジング / データ前処理 / データ可視化
・モデル構築、学習
・ドキュメント作成(日本語、英語)
・スプリントレビューにて作成物の説明
・定期的なレビューMTG

環境:GCP,Git,JIRA
言語:Python

必須スキル

・Python経験
・クラウド経験
・画像認識、自然言語、音声認識等での技術経験

案件内容

・BizDev、PMと連携し顧客が保有する大量のユーザーデータを解析
・将来的なプロダクト開発に係るデータ解析、可視化、ソリューション立案など
(データの可視化、KPI分析・分解、ダッシュボード作成、効果測定)

必須スキル

データ分析に関する実績(長期であれば尚可) コミュニケーション能力が高い方

検索結果1871件中1371-1380件