案件内容 |
【業務概要】 広告クリエイティブの制作プロセスを事前効果予測AIで支援するサービスの新機能開発を担当していただきます。 Mac, GitHub, GCP Slack, Notion, Google Meet, Zoom, Repsona, Tableau Python / TensorFlow / Triton Inference Server / Docker / Embulk / Argo WorkflowVertex AI / GKE / Cloud Run / Dataflow / GCS / CloudSQL / Memorystore / BigQuery / PubSubCloud Build / Cloud Monitoring 機械学習モデルを中心とした新しいサービスの設計・開発を担当していただきます ・膨大な広告データのデータエンジニアリング ・画像・動画・テキストを扱う高度な機械学習モデルの学習基盤構築 ・機械学習モデルのAPIサービス設計開発と運用 ・CI/CD・モニタリング・インフラの調整などの運用 |
---|---|
必須スキル | ・Python を用いたMLサービスバックエンドの開発経験
・SQL を用いた DB 利用やデータ分析経験
・GAE, GKE, BigQuery, Dataflow 等の各種 GCP サービスの技術選定や利用経験
・GitHubでのPull Requestを利用した開発フロー経験
・Webアプリケーション・ソフトウェア・DB設計経験
|
BigQueryの案件一覧
過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。
該当件数:180件
BigQueryの案件を探す
案件内容 |
【背景】 アクセス解析データ/DBデータ/APIデータ等合計600TBのデータ基盤を管理データ基盤を管理・改善する人員が不足しており今回の募集にいたりました。 * 運用改善 * データ基盤関連ツールの導入(ELTツール - dataform, データガバナンス - dataplex/DataCatalogなど) * CDPの構築(店舗向け、ラベル推定/スコア推定など, SFAツールへの連携) * 新規データ連携対応(DB - embulk, API - Cloud Run/Pythonによる実装) * データマート整備(Composerなど) |
---|---|
必須スキル | * データ基盤構築/運用の経験がある
* BigQuery/RedShiftの知識がある
* インフラ(Linux)の知識がある
|
- 〜¥700,000 /月
- データ集計・分析補佐
- 東京都
- サービス
案件内容 |
弊社クライアント(HR系)のデータ事業部にてデータ抽出業務を担当いただきます。 (主に戦略・方針策定のための実態の把握に向けたデータ抽出 クエリの「読み・書き」ができるだけでなく、依頼者側がどのような用件でデータ抽出したいのかを汲み取って使仕様検討・データ抽出ができる方を求めています。 ・基幹データやアクセスログからのデータ抽出 └新規のSQL作成、既存SQLの調査/改修 ・依頼者(事業担当者)との抽出要件の整理、プロジェクトの進行管理 |
---|---|
必須スキル | ・SQL を用いたデータ抽出経験
・Redshift、BigQueryでの大量データのハンドリング経験
・Web システムに関する基本的な理解と業務開発経験
・周囲と適切にコミュニケーションをとりながら抽象的な課題を整理して解決に導く能力・スタンス
|
案件内容 |
【業務内容・稼働イメージ】※ Phase1だけの参画も可。 ・Phase1: 5-6月: 60%稼働 - データマートの整備(Bigquery) - データマートのデータを利用して Tableauでの分析環境整備 ・Phase2: 7月以降: 20%稼働 - 週次レポートの作成・報告 - アドホック分析対応 |
---|---|
必須スキル | ① SQLを用いたデータベース操作、集計の実務経験(主にBigQuery)
- 欲しい数値を取得するために必要となるテーブルを選定し、SQLを実行することが出来る
- 効率や可読性を考慮したSQLを実行する事が出来るとなお良い(分析関数, UDFやクエリスクリプト)
② Tableauの分析環境整備・運用経験
- 1年以上想定
|
- 〜¥600,000 /月
- データ集計・分析補佐
- 東京都
- 金融
案件内容 |
■プロジェクト概要 エンドクライアントのサービスを充実させるため、ビジネス企画からサービスローンチ・グロースをスピーディに実現をする必要がある。 データ分析業務支援 ・開発ロードマップ対応や個別案件の定量効果だしについてO2O領域のサポート ・O2O関連のテーブル構造理解 ・BigQueryを用いたデータ抽出 ・Dataポータル用のデータソース証跡やマニュアルのまとめ |
---|---|
必須スキル | ・Bigquery
・GCP
・ドキュメントに作成(調査結果を纏める)
・主体的にプロジェクトを進められる方
|
案件内容 |
大手通信企業が保有する一般ユーザー向けコンテンツにおいて分析担当募集いたします。 |
---|---|
必須スキル | Google Analytics
GCP(主にBig Query)
|
- 〜¥600,000 /月
- データサイエンティスト
- 東京都
- サービス
案件内容 |
分析チームのプロジェクトマネージャーのもとにてマーケティング分析や統計・機械学習モデルの開発をご担当いただきます。
◆開発環境 ・データベース : BigQuery ・分析環境 : Colaboratory,VertexAI 等 ・言語:Python、R |
---|---|
必須スキル | ・PythonまたはRの経験 2年
・統計モデル/機械学習モデルの構築経験 2年
|
案件内容 |
お客様向けシステムを扱う部門にてアプリやサイトなど顧客接点POSデータから施策案の策定や効果分析を実施する役割を担っていただきたいです。 各システムで分断されている顧客の行動データ統合なども本件のスコープ業務となっております。 一部のデータはまだ集められておらずパイプラインの作成が必要な部分もあります。 集めたデータについても定義や継続的な利用方法、KPIなどが固まっている部分と今後固めていく必要がある部分があります。 ・Google Analytics ・DWHへ統合 ※CDP、CRM等部門ごとのデータを統合 ・外部Web API データ統合先 ・BigQuery マーケティングレイヤー ・toC向けのデータ活用 ガバナンス |
---|---|
必須スキル | ・データガバナンスの知見
・CDP構築・運用のスキル
・BigQueryを中心としたGoogle Cloudのデータエンジニアリング
・tableau/Looker studioでのダッシュボーディング
・ビジネス課題を把握し、データ分析からアクションを提案できる
・現状のプロダクトの課題の仮説をたて、データとして検証ができる/もしくは改修効果を計測できる
|
- 〜¥700,000 /月
- 分析基盤エンジニア
- 東京都
- コンサル・シンクタンク
案件内容 |
社内データ分析基盤開発・保守・運用業務を担っていただきます。■Python/Shell/Rubyで開発されているバッチ系システムが主 ・データレイクへの取り込み ・中間テーブル生成 ■追加機能開発 / 不具合調査・修正 / 社内ユーザーからの問合せ対応 ・社内ユーザコミュニケーションや要件定義も含む ・インフラからコードデプロイまでを担当 - ローカルで実装、Sandbox環境で動作検証、Productionデプロイ |
---|---|
必須スキル | ・エンジニアとしての実務経験4年以上
・Pythonの経験1年以上
・SQLの経験1年以上
・AWS/GCPを利用した開発経験1年以上
・GitHub or Gitを利用した開発経験1年以上
|
案件内容 |
デジタルメニューブック(セルフオーダー端末)の導入と機能向上、自社配達ネットワークにおける配達員専用アプリの開発、共同デリバリーやエリア配達のシステム構築などをの実績がある ・Google Analytics ・DWHへ統合 ※CDP、CRM等部門ごとのデータを統合 ・外部Web API データ統合先 ・BigQuery マーケティングレイヤー ・toC向けのデータ活用 ガバナンス |
---|---|
必須スキル | GCP BigQueryの知見
ETL・ELTの知見
データガバナンス
|
検索結果180件中101-110件