BigQueryの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:180

BigQueryの案件を探す

案件内容

・Deep Learning を活用した新たな Web サービスや新機能の構築

・災害や事故を判定するモデルの精度向上

・SNSの解析・データ分析
【概要】

Deep Learning を使って SNS 上の動画像やテキストを解析するリスク情報サービスを運営しています。

今後、Deep Learning などの機械学習技術を使って、新事業や新機能の開発をリードいただくMLエンジニアを募集しています。
【開発環境】

・言語:Python

・フレームワーク:PyTorch/ PyTorch Lightning/ TensorFlow

・環境:Jupyter Notebook / BigQuery / GitLab / Slack

・貸与マシン:MacBook Pro

【開発手法】

プロジェクトごとに選択、アジャイル、スクラム、チケット駆動開発、コーディング規約あり

必須スキル
・Pythonでの研究や開発経験、特にPyTorch/TensorFlow/scikit-learn/Keras等のライブラリやフレームワークを用いた開発経験
・Deep Learning を用いてサービス開発を行い、リリース後も品質向上を行った もしくはこれらをリードした経験:2年程度
・NLPの分類などの実務経験があること(分類(多項分類)、クラスタリング、要約、NER(固有表現抽出))
案件内容

クライアントでは、Deep Learningを使ってSNS上の動画像やテキストを解析するリスク情報サービスを運営しています。

今後、Deep Learningなどの機械学習技術を使って、新事業や新機能の開発をリードいただくMLエンジニアを募集いたします。
■業務内容

・Deep Learning を活用した新たな Webサービスや新機能の構築

・災害や事故を判定するモデルの精度向上

・SNSの解析・データ分析

   

【開発環境】

・言語:Python

・フレームワーク:PyTorch/ PyTorch Lightning/ TensorFlow

・環境:Jupyter Notebook / BigQuery / GitLab / Slack

・貸与マシン:MacBook Pro

必須スキル
・Deep Learningを用いてサービス開発を行い、リリース後も品質向上を行った もしくはこれらをリードした経験:2年程度
・Pythonでの研究や開発経験、特にPyTorch/TensorFlow/scikit-learn等のライブラリやフレームワークを用いた開発経験
・NLPの分類などの実務経験
・分類(多項分類)/クラスタリング/要約/NER(固有表現抽出)
案件内容

・某大手ネット印刷プラットフォームのデータ案件

・データ分析基盤の構築/運用

・各種システムからのBigQueryへのデータパイプラインの構築/運用

・BigQuery上のデータウェアハウス・データマートの加工処理の構築/運用

   

技術環境

・言語 : Python

・データベース : BigQuqery, Aurora MySQL 2.0, Aurora PostgreSQL

・インフラ : AWS (EC2, S3, Lambda etc.) , GCP

・バージョン管理 : git/Github

・CI : CircleCI, Jenkins

・コミュニケーション : Slack, Notion, ClickUP

必須スキル
・GCP、AWSなどクラウドでのデータ分析基盤の構築・運用経験
・BigQuery、Redshift、SnowflakeなどのDWH環境の利用経験(1年以上のBigQuery経験は必須)
・DWHへのデータパイプラインの運用経験
・データベースに関する知識とSQLの利用経験
案件内容

・SQLを用いたデータ抽出。

(Treasure DataにQueryを書いたり、一部Googleタグマネージャーを用いることもあります。)

※データ量が多いため、データ抽出業務の割合が大きいです。

・Tableauを用いての分析を行う。

・分析結果をもとに、どのように運用・検討していくべきかを、メルマガ担当など、いろいろなチームへと連携する。

・分析するために何のツールを利用するかどうかの検討も行う

必須スキル
・Queryを用いてデータ分析を行った経験
・Tableauの知識
・長期での参画が可能な方
案件内容 ・分析用データマート開発 ┗ 要件定義、データマート(テーブル)設計、SQL実装、テスト ・バッチ基盤(digdag)の実装、運用保守 ・データエンジニアリング業務 ┗ データの収集、加工、集計 ・データマートの保守運用 ・TableauのViz作成 【概要】 クライアント内のデータサイエンス部署にてデータマート開発実務を担当いただきます。 データマート開発実装をメインにご担当いただきますが、要件定義にてクライアントと直接コミュニケーションを取っていただく必要があります。
必須スキル
・データマート設計
・Redshift、BigQueryでの大量データのハンドリング(SQL実装、データマート設計)経験
・クラウド(AWS、GCP)、オープンソース(digdag、git)
・要件定義
案件内容

データ分析基盤の構築・運用に際し下記業務をご担当いただきます。

・各種システムからのBigQueryへのデータパイプラインの構築、運用

・BigQuery上のデータウェアハウス・データマートの加工処理の構築、運用

   

◆開発環境

・言語 : Python

・データベース : BigQuqery, Aurora MySQL 2.0, Aurora PostgreSQL

・インフラ : AWS (EC2, S3, Lambda etc.) , GCP

・バージョン管理 : git/Github

・CI : CircleCI, Jenkins

必須スキル
・クラウドでのデータ分析基盤の構築、運用経験
・DWH環境の利用経験 例)BigQuery、Redshift、Snowflakeなど
・BigQuery経験 1年
・DWHへのデータパイプラインの運用経験
・SQL経験
案件内容

データ分析基盤の構築・運用をおまかせします
・各種システムからのBigQueryへのデータパイプラインの構築・運用

・BigQuery上のデータウェアハウス・データマートの加工処理の構築・運用

   

開発環境言語 : Python,

データベース : BigQuqery, Aurora MySQL 2.0, Aurora PostgreSQL

インフラ : AWS (EC2, S3, Lambda etc.) , GCP

バージョン管理 : git/Github

CI : CircleCI, Jenkins

コミュニケーション : Slack, JIRA, ClickUP, Notion

必須スキル
・GCP、AWSなどクラウドでのデータ分析基盤の構築・運用経験
・BigQuery、Redshift、Snowflake などの DWH環境の利用経験
・DWHへのデータパイプラインの運用経験
・データベースに関する知識とSQLの利用経験
案件内容

データ分析業務支援

・開発ロードマップ対応や個別案件の定量効果だしについてO2O領域のサポート

・O2O関連のテーブル構造理解

・BigQueryを用いたデータ抽出

・Dataポータル用のデータソース証跡やマニュアルのまとめ

必須スキル
・Tableau等のBIツール利用経験
・任意の言語を用いた開発経験
・BigQuery
・GCP
・ドキュメントに作成(調査結果を纏める)
・主体的にプロジェクトを進められる方
案件内容

クライアント(HR系)のデータマネジメント部署にてデータマートの開発およびディレクション業務を担当いただきます。

データ分析/活用プロジェクトへ参画いただき、データエンジニアとしてデータマート開発実装をメインにご担当いただきつつ、データ要件の定義やプロジェクトの進行管理などディレクション業務も一部ご担当いただきます。
【業務内容】

・データ分析/活用プロジェクトの推進

・データマート開発における要件定義、プロジェクトの進行管理

・分析用データマートの開発

 └データマート(テーブル)設計、SQL実装、バッチ(digdag)実装

・データマートの保守運用

必須スキル
・SQL を用いた分析用データマートの設計・開発・運用経験
・Redshift、BigQueryでの大量データのハンドリング経験
・データの可視化・レポーティング経験
・Web システムに関する基本的な理解と業務開発経験
・Git などのバージョン管理システムを活用した開発経験
・データ分析/活用プロジェクトのマネジメント経験
・周囲と適切にコミュニケーションをとりながら抽象的な課題を整理して解決に導く
案件内容

【案件概要】

データ基盤内のコンテンツチーム(お客様のコンテンツ指標を整備、可視化、分析を行い、事業判断やコンテンツ判断にデータ活用を推進する)での稼働を想定。
業務としては、FPA(番組コンテンツごとの収支)システムの改修・運用・保守。
FPA システムは Djangoによる WebApp、Tableau Prep、Tableau(ダッシュボード)で構成される。

【担当業務】

DB設計からSQL実装、Workflowsの実装を行う。
・障害時対応(障害の原因究明)

・SQL実装

・テスト設計

・SQLによるアドホックの調査

・セキュリティ対応

【環境】

Jira, Confluence,BitBucket, Slack

必須スキル
・GCP全般の知識
・SQL
・Cloud SQL(PostgreSQL)
・BigQuery
・Python(Django)
・セキュリティ系の知見
・ネットワーク系の知見

検索結果180件中91-100件