DWHの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:145

DWHの案件を探す

案件内容

[ポジション]:開発エンジニア ※機械学習エンジニア

- 「機械学習モデル(レコメンド)の開発およびシステム実装」
- ※以下、データはWebサービスのDWHのDBログ

(a)案件の要件定義をPMと行う(=足りない情報が何かを定義し、自身で要求できる)

(b)機械学習モデルのPoC
 (b-1)前処理、EDA(探索的データ解析)、Data Augmentation、ほか
 (b-2)モデルの構築(レコメンド、分類/回帰、クラスタリング、強化学習、最適化、ほか)
 (b-3)PoC結果のレポーティング

(c)モデルのWebアプリケーションへの実装
 (c-1)GCPを活用した機械学習パイプラインのアーキテクチャ作成、実装
 (c-2)webサービス側のエンジニアと機能開発の切り分けとコミュニケーション

必須スキル

– Web業界でサーバーサイドエンジニアの経験3年以上(エンジニアリーダー経験有り)
– 機械学習モデルのWebアプリケーションへの実装経験(クラウドリソースを活用)
– レコメンドモデルの開発案件の経験2件以上(Webサービス本番環境への実装含む)
– SQL,Python,クラウドリソースの経験

案件内容
【業務内容】
SQLデータ抽出並びにBI、分析ツールを用いた資料作成して頂きます。
年間2~3億の金融決裁データをDWHからSQLで抽出し、どういう傾向があり、どういう人が使っているのか。
等を分析し、サービス満足度を図っていきたい。
必須スキル

要件定義
SQL
何かしらのBIツール経験(現在はDOMO利用)
実務経験必須

案件内容
内容:
大きく以下3つの業務をお任せします。
 ①部門内のデータ民主化PJTのプロジェクトマネジメント
 ②非テック人材への基礎的なSQLやBIツール利用方法のレクチャー ※BIはGoogle Data PortalとTableauを利用
 ③各チームのKPI設計とダッシュボード要件検討の支援
開発環境:
・インフラ:GCP(データ関連)/ AWS(ユーザー向けサービス)
・ETL:CloudComposer (Airflow)
・サーバーレス環境:GAE / CloudRun
・インフラ管理:GKE / Docker
・DWH:BigQuery
・監視:Stackdriver
・可視化ツール:Data Studio / Tableau
・分析環境:Jupyter Notebook
・その他:GitHub / Slack / Qiita:Team
必須スキル

・業務改善を中心としたプロジェクトマネジメントの豊富な経験 (目安は3年以上)
・データ分析の実務経験 (基礎集計レベルでも可)
・KPI設計の実務経験
・BIツールなどでのデータ可視化の実務経験

案件内容
tableauを使用して、セルフサービスBIツールの開発~保守業務までを行っていただ
きます。
また、既存DWH基盤での保守業務もございますので、スキルに合わせて業務をお任せ
いたします。
(DWHで使用しているアーキテクチャはhadoop)
DB周りの運用保守経験があると確度高めになります。
必須スキル

・tableauのご経験
・hadoopのご経験
・コミュニケーションに長けている方
・最先端技術への調査力・キャッチアップ力がある方
・データサイエンティストに興味を持っている方
・新しい技術を学ぶ意欲のある方

 ※上記全てのスキルに当てはまらなくても問題御座いません。

案件内容
既存データレイク(GCP環境-GCS)のコスト削減のための検討タスク
・GCP環境へCUI(ssh)で接続
・GCS上オブジェクトの情報取得・容量のサマリー(gsutilコマンド・スクリプト化(bash,python)
・EXCELでの管理資料作成
・ファイルフォーマットによるファイルサイズ比較
・重複ファイル(データ)調査
既存DWH環境移行-リプレース業務
・AWS/GCP環境上での移行に伴うプログラム(スクリプト)改修・SQL改修
・DWH環境およびETL処理保守
必須スキル

・SQL、Shell経験
・何かしらのスクリプト言語経験

案件内容

蓄積された大規模メディアデータからAWSサービスやオープンソースなどのML/DLフレームワーク技術を活用し、
各種モデルの検討から分析・開発・評価を行っていただきます
必須スキル

・SQLを使用した、加工・抽出・クレンジング等、データ前処理の実務経験
・機械学習/統計学に関する知識、経験
・PythonもしくはRの実装経験

案件内容
金融機関(銀行)におけるSASで書かれた既存プログラム(データ取り込み、加工、集計)を読み解き、各種ドキュメント(項目一覧、フロー図ほか)を整備する。
その先にはシステムのリプレイスも視野に入れているが、まずは既存プログラムに棚卸までを本プロジェクトのスコープとする。
処理概要:
既存処理の流れは次の通り。
・DWHより出力されたCSVファイル等(10-20ファイル)を加工を加えてSASデータセット化する。(顧客情報、契約情報、取引情報など)
※計400程度のSASプログラム。但しコメントや不稼働処理を多量に含む。
※このデータセット化処理は日次バッチで数時間かけて実行されている。
・保存したSASデータセットを集計し、帳票の素材(CSV形式で15-30ファイル)を作成する。
※日次バッチのほかに臨時で起動される処理も少数存在する。
・CSVファイルの集計結果は手作業でエクセルに転記し、レポートを作成する。
※VBAマクロは使用していない。
必須スキル

・システム開発経験(3年以上、うちSASによる開発経験が2年以上)
・他者の書いたプログラムを読み書き、ドキュメントを作成した経験

案件内容
案件内容(業務内容):
顧客マスタ(DWH)に格納されている各種ログより以下のツールの作成、報告書の作成を行う。
・資材流通・販売施策に向けた予兆分析用ツール
・サービス利用促進に向けた数理技術研究のための分析用ツール
対象データ:顧客マスタ(DWH)に格納されている各種ログ
対象環境:IDAP(統合分析環境)
必須スキル

・Python
・R
・ドメインを問わず機械学習による精度向上に取り組んだ経験(モデル、特徴量の工夫など)
・ドメインを問わずビジネス上の課題を機械学習で解決可能な問題設定に落とし込んだ経験
・問題に適した特徴量を設計、実装した経験

検索結果145件中111-120件