Redashの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:10

Redashの案件を探す

案件内容

【概要】
プロダクトに溜まったデータを活用したデータソリューション事業立ち上げに伴うデータサイエンティスト業務をお願いします。

【業務スコープ】
・ビジネス課題の理解・構造整理
・技術コンセプト策定
・データサイエンス問題の定義と必要な分析/技術開発タスクのマイルストン策定
・データ分析のためのデータマート・データウェアハウス構築・整備
・事業開発のための分析業務(EDA、データ可視化、利益シミュレーション等)
・コアとなるAI技術開発(技術課題特定, 開発, 精度改善)
・プロダクト開発業務(モデリング、モニタリング等)
・上記に付随するドキュメンテーション、報告

【開発環境】
■主な環境
・Python
・Jupyter notebook
・Redash
・Databricks
・データサイエンスライブラリ(Pandas/NumPy等)
■ライブラリ等
・Pandas
・NumPy
・Scikit-Learn
・LightGBM
・Prophet
・PuLP

必須スキル
・Python/Jupyter経験2年以上
・SQLを用いたデータ抽出経験2年以上
・ビジネス構想策定/要件定義/運用定着フェーズにおけるデータサイエンス関連業務に取り組まれた経験
・定式化・統計モデル/機械学習モデルを用いた、ビジネス課題を改善・解決するまでの一連の実務経験
・AWS上での業務経験
案件内容

・戦略推進室の要望に応じでRe:dash運用、DBからデータ抽出を実施
・可能であればデータの示唆だしまでできると尚可

必須スキル

・下記言語に3-5年の経験
└Re:dash運用経験
└SQL
└Python
└Linux
└Bash
└Docker
└PostgreSQL

案件内容

・サービス内(App/Web)におけるユーザーの活動分析
・機能分析や、サービス内のファネル分析、ユーザー別の活動分析等の幅広な分析を実施
・データを依頼してのその直接提示というより、持つ仮説を強化あるいは反証するデータを幅広に検証したり、そこから必要な取得データや分析を提案し回答や示唆を提供する
・必要情報を取得する際の開発チームへの依頼や要件の伝達(イベントの発火組み込みや、新機能における分析必要項目のDevチームへの連絡や埋め込み依頼等)
※海外とのやり取りが発生するため英語の読み書きが頻出します(担当業務によっては英会話の必要性も有り)

<業務詳細>
・分析基盤整備
 └ダッシュボードの作成(KPIツリー、目的別ボード)
 └ユーザー行動の可視化(推移、利用特性)
 └分析基盤整備の推進(データ取得の推進、課題点洗い出し)
・分析
 └データを用いた仮説検証(機能、UI改善、施策)
 └ユーザー行動(数値化、可視化、セグメント分類)
 └効果検証(広告、キャンペーン、メールマガジン等)
 └得られたデータを元にしたインサイトの提供

    

<使用ツール>
・開発言語:Go
・インフラ環境:Google Cloud、Cloud Spanner、Cloud Function、Cloud Run、BigQuery
・ソースコード管理:GitHub
・CI/CD:CircleCI, Cloud Build
・監視/モニタリング:Google Cloud Logging, Google Cloud Monitoring
・インシデント管理:PagerDuty
・コミュニケーション:Slack, Google Meet
・プロジェクト管理/ドキュメント:JIRA/Confluence/DocBase

必須スキル
・データ分析経験3年以上
・SQLを用いたデータ分析やデータ集計の経験
・PythonやRなどを利用したデータ分析業務の経験
・Google Analytics, BIツール、エクセル等を利用した、サービスの分析および示唆出しの経験
・BIツール(Looker、Tableau、Redash等)でのダッシュボード経験
案件内容

データユーザーからの要求をくみとり的確なデータとフローの設計を行い、パイプラインの構築やパイプラインを動かすデータ分析基盤の運用保守を行う。

必須スキル
・クラウドデータ基盤サービスでの開発運用保守経験(特にBigQueryの経験があると良い)
・データ基盤運用の範囲におけるSQL(DDL/DML、CTE、副問い合わせ、information_schemaの利用、など)
・Linux / ネットワークの基礎知識(Linuxサーバの運用保守経験があると良い)

 

以下技術要素参照(*が特に重要)
– ETL/ELTツール
– *Embulk
– trocco
– digdag
– BIツール
– Redashなど
– GoogleCloud
– *BigQuery
– Cloud Storage(updated)
– Data Transfer
– IAM
– Cloud Monitoring / Cloud Logging
– その他
– *Linux
– *Bash
– Git
案件内容

リードエンジニアとしてデータ分析基盤の設計・構築・運用をおまかせします。

・各種システムからのBigQueryへのデータパイプラインの設計・構築・運用
・BigQuery上のデータウェアハウス・データマートの加工処理の構築・運用
・Issue対応
・技術調査

開発環境
言語 : Python,
データベース : BigQuqery, Aurora MySQL 2.0, Aurora PostgreSQL
インフラ : AWS (ESC,EC2, S3, Lambda etc.) , GCP,Dagster,Airflow
バージョン管理 : git/Github
CI : CircleCI, Jenkins
コミュニケーション : Slack, JIRA, ClickUP, Notion

必須スキル
・Pythonでの開発経験
・クラウド(GCP/AWS)での分析基盤のアーキテクト設計、構築・運用経験(2年以上)
・テラバイトクラスのデータパイプライン(ワークフロー)の設計、構築、運用経験(2年以上)
・IaCおよびCI/CDの経験(2年以上)
・リードテック経験
・コミュニケーション能力
案件内容

自社にてECサイト・口コミサイトを開発運営している大手企業でGoogle Cloudを利用したデータパイプラインの開発・運用を行っていただきます。

必須スキル
・データ分析に関わる開発実務経験(SQL/Pythonなど)2年半以上
・AWS、GCPいずれかのクラウドデータ分析基盤の運用経験 合計1年以上
・高度なSQL(複雑な副問い合わせなど)の経験
・データマネジメントに関する基本的な知識
・データモデリングの経験、DWHの構築・運用経験
案件内容

・SQLやPythonを利用したデータ抽出

・データに基づいたKPI設計サポート・分析

・ユーザー行動分析

・US/CS部門に展開するプロダクトKPIダッシュボードの構築

・エンジニアと協業したデータ基盤のモニタリング

【環境】

  言語:Python(バックエンド)、Typescript(フロント)

  クラウド環境:AWS(Lambda、EC2)

必須スキル
・SQLの利用経験
・ユーザーからの要件に基づくデータ分析とソリューション提案経験
・論理的に説明できるコミュニケーション能力
案件内容

小売店舗経営を支援するダッシュボードに関わるデータ抽出・分析をお任せします。

<クライアントが提供しているサービスとは>

現状の店舗経営は他業界に比べ経営者のKKD(勘、経験、度胸)に依存した経営体制が多く、経営者による意思決定の質のばらつき、現場に適切な説明責任を果たすことができない、分析にコストがかかるなどの課題が存在しています。

提供しているサービスは、店舗経営のオーナーや現場に対して、必要な項目を可視化することで、経営の日々の業務改善の意思決定をサポートするサービスとなります。
■募集背景

2020年にクライアント向けサービスの正式版をローンチしてから利用店舗数が順調に増加しています。

利用者数増大に伴いプロダクト運営のKPI・メトリクスのモニタリング体制の強化、プランナーが意思決定するためのデータ分析業務をお願いします。
■具体的な業務

・SQLやPythonを利用したデータ抽出

・データに基づいたKPI設計サポート・分析

・ユーザー行動分析

・US/CS部門に展開するプロダクトKPIダッシュボードの構築

・エンジニアと協業したデータ基盤のモニタリング

必須スキル
・SQLの利用経験
・ユーザーからの要件に基づくデータ分析とソリューション提案経験
・論理的に説明できるコミュニケーション能力
案件内容

業務:プロダクトの分析業務を支える基盤の機能拡充ならびに運用自動化に関わる開発を担当いただきます。・データウェアハウスへのデータ連携を含む、データ基盤で動作するETL処理の開発・データパイプラインを管理・運用・監視する仕組みづくり・取り扱うデータのセキュリティやガバナンス対応・各種運用業務の自動化とドキュメント整備
環境:プログラミング言語: Python, SQLバージョン管理: Git/GitHubデータ分析基盤、環境: AWS, SnowflakeETLツール: trocco, Airbyte, dbt(導入準備中)IaCツール: TerraformBI: Redash, Google Spread Sheet, Looker Studioコミュニケーション: Slack, ClickUp, Notion

リモートワークをベースとしていますが、週1日程度出社日を設けています。週5未満の場合でも、出社日、スクラムイベントのため火曜は勤務日となるようお願いします。

必須スキル
・データ基盤技術の基本的な理解(OS, RDBMSなど)
・データウェアハウスの設計とETL処理の開発経験
・Pythonなどのスクリプト言語を用いた開発経験
案件内容

【業務内容】①ソリューションの提案• CSやBiz、品管の業務課題に対し、AI/MLで解決できるものを洗い出しソリューションを提案する•データ分析を元にソリューションを提案する。②モデルの開発• ヒアリングした内容や発見した課題に対し、モデルの作成③システム化• 必要なバッチ、APIの作成(歓迎要件)• システムへの落とし込みや落とし込むための支援④PoCの実施• KPIに対して有効なモデルの検証⑤既存モデルの保守・改善• SEMで過去開発したモデルのアップデートや改善
【開発環境】・開発言語:Python, Ruby on Rails・インフラ:AWS, GCP・機械学習ツール:Amazon SageMaker、Jupyter Notebook・データ分析:BigQuery, DOMO, Redash, Amazon RDS・CI/CD:Jenkins, CircleCI, Capistrano, Github Actions,・コードリポジトリ、レビュー:Git, Github, Gitlab

必須スキル
• Python, SQLの経験がある方
• 機械学習に対する幅広い知識(画像、自然言語、テーブルデータ)
• 実務としてモデルを開発し、運用まで落とし込んだ経験
• 高いコミュニケーションスキル
• 能動的に行動できる方

検索結果10件中1-10件