- 〜¥700,000 /月
- データ集計・分析補佐
- 東京都
- IT・情報通信
案件内容 |
転送元のシステムから、新システムへデータ転送、データ格納、フォーマット変更やデータ加工処理を行う。使用ツール(HULFT、DataSpider、FTP、Vertica、OracleDB 等) |
---|---|
必須スキル | SQLの設計可能な方 |
過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。
該当件数:1067件
案件内容 |
転送元のシステムから、新システムへデータ転送、データ格納、フォーマット変更やデータ加工処理を行う。使用ツール(HULFT、DataSpider、FTP、Vertica、OracleDB 等) |
---|---|
必須スキル | SQLの設計可能な方 |
案件内容 |
ERPからのデータをSQLサーバーにてパフォーマンスチューニングしていただきます。データクレンジング、データベース改善BIロジック改善などを実施していく方向。チーム体制は4名~5名ほどのイメージ |
---|---|
必須スキル | SQLから大規模データ抽出経験
BIツールの知見
|
案件内容 |
【業務内容】機械学習チームにおける技術支援 |
---|---|
必須スキル | • Python, SQLの経験がある方
• 機械学習に対する幅広い知識(画像、自然言語、テーブルデータ)
• 実務としてモデルを開発し、運用まで落とし込んだ経験
• 高いコミュニケーションスキル
• 能動的に行動できる方
|
案件内容 |
to C向けサイトの運営をしているクライアント様でユーザの行動ログから予測し優先的に表示をしており、今後は自然言語を活用したレコメンドも検討中。 |
---|---|
必須スキル | Pythonを用いたデータ分析、モデリング
SQL、Pythonデータ抽出、加工
|
案件内容 |
BI高度化に向けサポートいただける方を募集しております。具体的にはBIツールを使用して顧客管理/売上管理データ等を含むレポートティング/ダッシュボード作成をお願いしたいです。複数のマスターデータがございますので必要なデータを抽出し、加工いただくこともスコープとなります。IT部門と業務部門と会話しながらプロジェクトを進めていただきたいと思います。想定される業務は下記となります。・BIレポート/ダッシュボード作成・部門間コーディネート、ユーザコミュニケーション・上記附帯する業務一式 |
---|---|
必須スキル | ・PowerBI 開発経験必須
・SQLなどのクエリの取り扱いが可能な方
・プロアクティブなコミュニケーション能力
|
案件内容 |
業務:プロダクトの分析業務を支える基盤の機能拡充ならびに運用自動化に関わる開発を担当いただきます。・データウェアハウスへのデータ連携を含む、データ基盤で動作するETL処理の開発・データパイプラインを管理・運用・監視する仕組みづくり・取り扱うデータのセキュリティやガバナンス対応・各種運用業務の自動化とドキュメント整備 リモートワークをベースとしていますが、週1日程度出社日を設けています。週5未満の場合でも、出社日、スクラムイベントのため火曜は勤務日となるようお願いします。 |
---|---|
必須スキル | ・データ基盤技術の基本的な理解(OS, RDBMSなど)
・データウェアハウスの設計とETL処理の開発経験
・Pythonなどのスクリプト言語を用いた開発経験
|
案件内容 |
某ユニコーン企業の分析チームにて、下記業務を依頼する想定で御座います。 |
---|---|
必須スキル | ・①~⑦までの一連の業務経験
・Looker使用のご経験
・中級レベル以上のSQL経験
(Window関数含む分析関数)
|
案件内容 |
・データ連携案件管理:データ供給元からデータ利用者のために日程調整や管理業務・基盤構築:事業要請に応じたデータレイク,データウェハウス,マートの実装,テスト・基盤移行 ■営業担当からのコメント■Pythonでゴリゴリコードを書くというよりも、基盤移行やマート管理等、管理系の業務が主となります。 |
---|---|
必須スキル | ・リーダー経験
・SQLを理解し,DDLやDMLを使いこなせること(最低でも相関サブクエリやGROUP BY,HAVING句が使用できる)
・pythonを用いたコーディング経験が1年以上(C#, javaなどの高級言語での経験でも可)
・AWS Redshift,Glue,Lambda等を用いた分析環境構築・運用経験が1年以上
|
案件内容 |
最先端タクシーサービスに蓄積されたデータを用いてデータ解析や機械学習モデルの改修を行っていただきます。 |
---|---|
必須スキル | ・PythonおよびDjangoの利用経験が2年以上あること
・機械学習モデルの提案/構築/評価/デプロイ/改善の実績があること
・Bigqueryを用いた分析業務やSQLを用いたDB対応の経験が2年以上あること
|
案件内容 |
大手通信企業が提供するポイントサービスが保有し、1,000万人以上の登録者を抱える公式LINEの登録者拡大、関連サービスへの送客・収益化をミッションとしたLINEの運用業務になります(体制:PM1名, 分析担当2名, 運用者 3名)大手通信会社の保有する数千万の会員IDとLINE IDを突合し、LINEを起点に顧客ARPUを最大化していただく業務を担当していただきます。分析担当者の主な役割としては、月間20件ほどのLINE配信業務にともなう配信結果の集計・分析において、大手通信会社の保有する会員IDと突合した顧客行動分析になります。加えて、サービスを横断した顧客ARPU最大化のため、LINE登録者の各サービス内の行動分析を行い、LINE配信PDCAを実施いただきます。※今回、TONARIWAというツールを用いて社内の会員基盤とLINEを連携させた配信を実施します。LINE上の基本的な行動ログはTONARIWAで取得できる想定なのですが、場合によっては生ログデータをLINEから抽出し、会員基盤のデータと突合いただく業務が発生いたします。 |
---|---|
必須スキル | ・大規模データ集計・分析業務(web、顧客、購買データ)
・ダッシュボード構築(Google Looker Studio,Tableau)
・公式LINE運用に関わる業務(LINE API活用経験)
・CRM運用経験(Salesforce, HubSpotなど)
・5名以上のプロジェクトチーム参画
・GoogleAnalytics(UA,GA4)
・SQL, BigQuery
・Salesforce、Hubspot、MarketoなどのCRMツール
・スプレッドシート(Excel、Googleスプレッドシート)
|
検索結果1067件中761-770件