SQLの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:943

SQLの案件を探す

案件内容

ITエンタメコンテンツを提供するメガベンチャーにおいて、データエンジニアを募集しております。
科学的な事業分析、予測、改善を通じた、着実・再現性のある事業成長の実現に向けてデータ活用を推進しています。
全体のデータ活用支援をミッションとし、以下の業務をお願いしたいと考えております。
・データ関連プロジェクトの推進
・各担当事業のデータスチュワード
・事業KPI設計、ABテストの推進、分析
・BigQuery上への分析用データマート構築
・SQLを用いたデータ分析、施策立案
・ビジネスにおける課題抽出/データ分析
・BIツール等のデータの可視化

必須スキル
・データ集計、前処理に関わるスキル、経験(SQL3年程度)
・分析のご経験(2年程度)
・アダルトコンテンツに触れるため対応可能な方(一部、画面を確認する場合がございます)

 

<上記に加え、以下より1つ以上該当する方>
・BIツールの使用/構築経験(1年程度)
・GA4の設定、イベント設計、イベント実装経験(1年程度)
・GTMの設定、開発、使用経験(1年程度)
・クラウド(AWS、Azure、Google Cloudなど)での実務経験(1年程度)
・コード管理ツール(Gitなど)を使用した実務経験(1年程度)
案件内容

■案件内容:
【システム概要】
AWS環境に、データ分析用API構築。
AWS(EC2,ECS,ECR,CloudFormation,Lambda等) の構成。

【開発方式】
ウォーターフォールモデル or アジャイル

必須スキル
SQL
プログラミング経験
Python
AWS
案件内容

■案件内容:
【システム概要】
新規でのデータ分析基盤の構築業務

【担当領域】
スキル見合いで体制と相談しますが、上流から下流まで幅広く対応いただけます。

   

【システム構成】
以下の技術要素で構成されます。
インフラ:Azure
DWH:Databricks
BI:PowerBI

【開発方式】
ウォーターフォールモデル

必須スキル
SQL
プログラミング経験
データ基盤構築
案件内容

Google Cloud / AWSを利用した商用稼働サービスのデータパイプラインの開発・保守運用と日々の運用業務から発生する課題の解決・改善

主要技術:BigQuery/Cloud Composer(Airflow)/Python/(一部Spark)

必須スキル
・Pythonを利用したデータ分析等の開発経験、SQLの知識
・AWS、GCPいずれかのクラウドサービスの開発及び運用経験
・Linux/ネットワークの基礎知識
案件内容

データユーザーからの要求をくみとり的確なデータとフローの設計を行い、パイプラインの構築やパイプラインを動かすデータ分析基盤の運用保守を行う。

必須スキル
・クラウドデータ基盤サービスでの開発運用保守経験(特にBigQueryの経験があると良い)
・データ基盤運用の範囲におけるSQL(DDL/DML、CTE、副問い合わせ、information_schemaの利用、など)
・Linux / ネットワークの基礎知識(Linuxサーバの運用保守経験があると良い)

 

以下技術要素参照(*が特に重要)
– ETL/ELTツール
– *Embulk
– trocco
– digdag
– BIツール
– Redashなど
– GoogleCloud
– *BigQuery
– Cloud Storage(updated)
– Data Transfer
– IAM
– Cloud Monitoring / Cloud Logging
– その他
– *Linux
– *Bash
– Git
案件内容

コンサルタント会社が進めている大手化粧品会社のDXプロジェクトにご参画いただきます。
こちらのチームでは、20名近いメンバーが各ポジションで動いており、
データ活用・分析、Salesforce Marketing Cloudを活用したメールマーケティング等を支援しています。

【詳細】
・SQLを使用し、BigQuery環境のデータを抽出、加工する業務
・Salesforce Marketing Cloudとの連携、セグメンテーションなど
※顧客マスタ、行動履歴、購買履歴といったデータを使用いたします。

※貸与PCでの業務をお願いします。

必須スキル
・社会人経験(目安2年~)
・BigQuery環境でデータの抽出、加工を行った経験(目安1年~)
・SQL記述スキル
案件内容

・サービスデータのTableauを用いたビジュアライズ
・上記データの分析(営業や企画から依頼が来ます)
・上記データのデータ抽出
・Tableau Serverの管理(ブラウザを用いたUI上の管理です)
・GA、BigQueryを用いたweb分析
・上記データのビジュアライズ
・データマート作成
・データクレンジング

必須スキル
・SQL(MySQL、BigQuery、Athena)
・Tableau
案件内容

主業務:定義された設計書の意図を理解し、設計書に沿ってデータを加工するパイプラインバッチの開発を行う。

主要な使用技術:BigQuery/dbt/Prefect/great_expectations(一部Airbyteの可能性)
期間:短期間(2024/1〜3月の3ヶ月間)想定
その他希望:週5日フルタイム(フレックス制)、フルリモートOK

必須スキル
・Python、SQLに関する開発経験
・円滑なチーム開発能力
(ジュニアエンジニアレベル〜エンジニアのスキル感)
案件内容

内容:
物流マッチングプラットフォームを展開する企業にて、データエンジニアとしてご参画頂きます。
主に各事業のデータ分析基盤(DWHとデータパープライン)の設計・構築・運⽤を⾏っていただきます。
<具体的な業務内容>
既存のDWH(BigQuery)とデータパイプラインの拡充

  • 利用可能なデータの拡充
  • データのリアルタイム性の向上
    将来のデータ基盤戦略の策定とその推進
  • 新たなDWHとデータパイプライン(ELT)の設計・構築・運用
    データ分析によるビジネス課題の発見の推進
  • データによる課題の可視化
  • BIなどを通したモニタリング環境の構築
    技術環境:
    ・言語:Ruby、Python
    ・バージョン管理:Git/GitHub
    ・データ基盤:BigQuery、AWS RDS
    ・BI: Redash、Google Spread Sheet、Google Data Studio
    ・コミュニケーション:Slack、Notion
必須スキル
・1名でのデータ分析業務を担当した経験または現場リーダーとしての経験
・BigQuery、Redshift、Snowflake などのDWH環境の利⽤経験(3年以上)
・GCP、AWSなどクラウド環境の利⽤経験(3年以上)
・データ分析基盤開発における、ETL処理の理解・経験(3年以上)
・データベースに関する知識とSQLの利⽤経験(3年以上)
・正規化されたデータをもとに要望にあわせてSQLを⽤いてデータ抽出ができる方
案件内容

・新規データマート要件定義、既存集計フロー効率化ユーザの要望を聞いて新しいデータマートを作成したり既存の集計フローを自動化することで効率化を図ります

・データマート作成
既存帳票(Excel,CSV)からSQL作成、BIでの可視化

・データのETL処理やETL処理のためのスクリプト・システム開発運用改善業務

  • AWSのGlue・Athena等を使用し、SQL・Pythonでコーディングし、S3にデータレイク、データマートを構築
  • 既存の基盤改修・改善

・データマート日次運用保守業務

   

【開発環境】
プログラミング言語:Python
ライブラリ:PySpark, pandas
データベース:AWS RDS (SQLServer), AWS Athena(trino)
環境・OS:AWS (Amazon Web Services), AWS Lambda, AWS Glue
BIツール:QuickSight

必須スキル
・SQL(Window関数やUNION,副問い合わせを流暢に扱えること)
・pythonでの開発経験
・AWS分析基盤開発経験
(Glue,Athena,QuickSightの経験歓迎,他のAWSサービスにも詳しい方大歓迎)
・アプリケーション開発経験

検索結果943件中251-260件