林担当の案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:104

林担当の案件を探す

案件内容

大手エンターテインメント企業にて、
小規模分析課題の分析を行っていただきます。

業務詳細
・担当者と議論し分析課題の設計
・データ加工 (python,SQL等)
・分析 (モデルを使うことは少なめ)
・レポーティング

言語:SQL、Python

必須スキル
・SQL、Pythonを用いた実務経験がある
・機械学習手法を用いた分析経験がある
・フリーテキストの集計、分析ができる
案件内容

大手エンターテインメント企業にて、
効率的なデータマートとダッシュボード作成運用を、分析官と一緒に行っていただきます。

業務内容
①データマート作成
②Looker StudioまたはLookerによる可視化

▼①の業務詳細
・決められた要件に従いデータマートを作成
・他分析官作成のデータマートの整備

▼②の業務詳細
・決められた要件に従い①で作成したデータマートを使用して可視化を行う

言語:SQL
環境・ツール:BigQuery、Git

必須スキル
・SQL:数百行のクエリを解読・作成できる
・BIツール:BIツールの使用経験がある
・データマートの作成において、コストを意識したテーブル・クエリ設計、スケジュール設定ができる
案件内容

大手エンターテインメント企業における、
・生成AIプロダクトのPoC
・ウェブプロダクト開発のPM・もしくは開発業務
をご担当いただきます。

想定業務
・生成AIプロダクト開発・PoC
・生成AIプロダクトの開発
・ウェブプロダクト構築のPM・もしくは開発業務

・分析基盤:BigQuery
・CI/CD:GitHub Actions
・インフラ構成管理:Terraform
・コード管理:GitHub
・ツール類:Slack / Google Workspace / Notion

必須スキル
(以下は全て満たしていることが望ましいですが、スキル次第で応相談)

 

1. SQLを用いたデータ抽出経験
2. Pythonなどを利用した開発経験
3. 何らかのWebフレームワークを使用した開発経験
4. 監視ツールの導入・運用経験
5. Infrastructure as CodeおよびCI/CDの経験
6. GCPでの開発経験
案件内容

・大手エンターテインメント企業において、親会社が運営するゲームタイトルのデータを、
データレイクに格納するデータパイプライン構築の業務がメインとなります。

・増員のための募集ですが、チームを技術で引っ張ることのできる中堅レベル、リーダポジションとなれる方をお願いしたいと考えております。

内容や案件はゲームタイトルのスケジュール等に依存するため、
ゲームタイトル以外のデータパイプライン構築や、社内システムの構築をお願いする可能性もございます。
(Webサイト等その他サービス)

※お願いする可能性のある業務スコープ例

・データ分析基盤の開発・運用
データを収集するETL/ELTパイプラインの開発
運用体制構築のためのルール・ドキュメント整備
・上記を継続的に利用するための、ソフトウェアのバージョンアップや周辺ツールの開発(運用)
・技術調査

GCPを採用しており、GCP系リソースを中心に活用します。(BigQueryなど)
インフラ管理:terraform
パイプライン構築:Airflow(Cloud Composer)、Argo workflow、SaaSであるtrocco等

必須スキル
1. SQLを用いたデータ抽出経験
2. Go、Java、Pythonなどを利用した開発経験
3. ETL/ELTのデータパイプライン設計/構築
4. ワークフローの構築経験(Digdag / Airflow etc.)
5. 監視ツールの導入・運用経験
6. Infrastructure as CodeおよびCI/CDの経験
7. コンテナ技術(Docker/Kubernetes)を用いた開発経験
8. GCPでの開発経験
9. データマネジメント(DMBOK)に関する理解や実践経験
案件内容

・大手エンターテインメント企業において、親会社が運営するゲームタイトルのデータを、
データレイクに格納するデータパイプライン構築の業務がメインとなります。

内容や案件はゲームタイトルのスケジュール等に依存するため、
ゲームタイトル以外のデータパイプライン構築や、社内システムの構築をお願いする可能性もございます。
(Webサイト等その他サービス)

※お願いする可能性のある業務スコープ例

・データ分析基盤の開発・運用
データを収集するETL/ELTパイプラインの開発
運用体制構築のためのルール・ドキュメント整備
・上記を継続的に利用するための、ソフトウェアのバージョンアップや周辺ツールの開発(運用)
・技術調査

GCPを採用しており、GCP系リソースを中心に活用します。(BigQueryなど)
インフラ管理:terraform
パイプライン構築:Airflow(Cloud Composer)、Argo workflow、SaaSであるtrocco等

必須スキル
1. SQLを用いたデータ抽出経験
2. Go、Java、Pythonなどを利用した開発経験
3. ETL/ELTのデータパイプライン設計/構築
4. ワークフローの構築経験(Digdag / Airflow etc.)
5. 監視ツールの導入・運用経験
6. Infrastructure as CodeおよびCI/CDの経験
7. コンテナ技術(Docker/Kubernetes)を用いた開発経験
8. GCPでの開発経験
9. データマネジメント(DMBOK)に関する理解や実践経験
案件内容

・社内システムのフロントエンドおよびバックエンドの開発/運用
 社内の運用および追加機能開発
・技術調査

【業務スコープ】
・社内システムの開発および運用
・LLMを利用したチャットボット開発(社内、社外向け)
・要件定義、設計など上流工程
・ドキュメント整備
・社内メンバーからの不具合報告、問い合わせ等窓口対応
・技術調査

【言語】
React, Python, Svelte
※ フロントエンドの言語優先
【環境】
・構成:GKE/Cloud SQL
・CI/CD:GitHub Actions
・監視ツール:Cloud Monitoring, datadog
・インフラ構成管理:Terraform
・コード管理:GitHub
・コミュニケーションツール類:Slack / Google Workspace / notion

必須スキル
1. React+Next.js, Python, Svelteを利用した開発経験
2. 要件定義、設計の経験
3. コンテナ技術(Docker/Kubernetes)を用いた開発経験
4. GCPでの開発経験
案件内容

某エネルギー事業会社様のデータアナリティクス部署にて、下記案件を始めとする数理最適化プロジェクトにおいて、データサイエンティストとしてアサイン予定になります。
・最適化ロジック構築:ビジネス要件をもとに定式化や最適化アルゴリズムを構築。
構築したロジックの検証や改良も実施。
・プロトタイプ開発:必要であれば、PoC用の簡易システムを実装。
・本番システム開発:主に本番システムのロジック部分を実装。
・ドキュメント作成:定式化資料、クラス図などのドキュメントを適宜作成。

必須スキル
・数理最適化の理解と開発経験
・ドキュメンテーションスキル
・コミュニケーション能力
案件内容

某航空会社のTableauを用いたダッシュボード構築支援
-イテレーション開発(仕様調整→製造→テスト→確認のサイクル)

・希望参画時期:2024年4月~
・希望人数:2名
・出社頻度:週2~3回ほど(調整可能です)
・最寄り駅:川崎駅からバス30分ほど

必須スキル

– Tableau・ダッシュボード開発経験
– SQL
– 主体的に推進できるマインド

案件内容

リアルタイムなデータパイプラインを構築するためのデータエンジニア業務と、
機械学習モデルをより素早く安定的にデプロイできるようなCI/CDパイプラインの構築、効率よくデータを捌くためのミドルウェア開発、インフラ構築などを行う、MLOpsエンジニア業務をおまかせします。
GCPデータ基盤とその活用案件、は既に多数存在するものの、さらなる拡充を狙った専門人材の募集となります。
IP(知的財産)ビジネスがドメインの事業会社において、全社へ大きな影響を与える分析部門にアサイン頂きます。

【業務スコープ】
分析官や機械学習エンジニアと連携しながら、速く安全に機械学習のサイクルを回せるML基盤の構築をお任せします。

[データエンジニア概要]
■データパイプライン(リアルタイム)の設計・実装

(具体的な職務)
・収集対象:ECサイト
・データ分析基盤の開発・運用
・データを収集するETL/ELTパイプラインの開発
・運用体制構築のためのルール・ドキュメント整備
・上記を継続的に利用するための、ソフトウェアのバージョンアップや周辺ツールの開発(運用)
・技術調査

[MLOpsエンジニア概要]
■ ビジネス課題と要求の整理(案件の要件定義をPMと行える=足りない情報が何かを定義し、自身で要求できる)
■ 機械学習ワークフローの設計/開発/運用
■ データ提供のためのAPI設計/開発/運用(アプリ開発側との連携)
■ 機械学習モデルをより素早く安定的にデプロイできるようなCI/CDパイプラインの構築
■効率よくデータを捌くためのミドルウェア開発、インフラ構築
■ ML基盤内へログデータを収集・蓄積・加工する、一連のデータパイプラインの設計/開発/運用

(具体的な職務)
■ ビジネス課題と要求の整理(案件の要件定義をPMと行える=足りない情報が何かを定義し、自身で要求できる)
■ 機械学習ワークフローの設計/開発/運用
■ データ提供のためのAPI設計/開発/運用(アプリ開発側との連携)
■ 機械学習モデルをより素早く安定的にデプロイできるようなCI/CDパイプラインの構築
■ 運用体制構築のためのルール・ドキュメント整備

必須スキル
・SQLを用いたデータ抽出経験
・ETL/ELTのデータパイプライン設計/構築
・Infrastructure as CodeおよびCI/CDの経験
・ワークフローの構築経験
・Pythonなどを利用したアプリケーション開発経験
・GCPでの開発経験
・コンテナ技術(Docker)を用いた開発経験
案件内容

・サービスデータのTableauを用いたビジュアライズ
・上記データの分析(営業や企画から依頼が来ます)
・上記データのデータ抽出
・Tableau Serverの管理(ブラウザを用いたUI上の管理です)
・GA、BigQueryを用いたweb分析
・上記データのビジュアライズ
・データマート作成
・データクレンジング

必須スキル
・SQL(MySQL、BigQuery、Athena)
・Tableau

検索結果104件中1-10件