DB/基盤系の案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:700

DB/基盤系の案件を探す

案件内容

■CDP/BIアーキテクト

企業のデータ資産価値の向上のため、戦略立案・組織設計、先端技術導入シナリオ策定の課題に対して、コンサルタント(アーキテクチャ設計)として戦略基盤支援。・Tableauの要件定義~詳細設計、構築、レポーティング(メイン業務)・データの細部が見れデータマートをパフォ考慮して設計・マイグレーション支援・同時に、CDP/MAの構築要件定義が走っており、マーケティング統合基盤の全体PRJの一貫です。
具体例:

-DWH環境: salesforce CDP, teradata, Athena のデータブレンドが必要-CDP, S3, Athena, Tableau onlineのデータソース/データマート/ダッシュボードの設計・開発※CDPを中心とした顧客360PRJは、本案件以外で今後も増加予定※国内でも初のソリューションスタック※適材適所でポジションを用意(エンドクライアントは小売業が多い)
【依頼元会社】

デジタルトランスフォーメーションを実現するために必要な、コンサルティングからマーケティングまで、ワンストップで提供している会社の業務です。エンドクライアント別で新規顧客の獲得や見込み顧客の育成なども含めたマーケティング施策をサポートしています。(MA)

※カウンターパートがEC/マーケティング/新規事業の部門と、比較的若い層が多いです。
【クライアントPJT例】

●公共交通機関でのPoC:地方都市における観光促進として、現地での行動、店舗/交通情報などロケーションマーケティングデータの可視化/分析環境構築●国内大手スポーツ小売り量販店における広告最適化:Google関連APIと顧客スコアリングモデルを活用した自動化による広告出稿最適化、ダイナミックプライシングのアルゴリズムの施策企画と実施評価
【クライアンント環境】 ★

◆技術・ソリューション例(本案件以外も含む)・Google Marketing Platform(GA360)、Google Cloud Platform、AWS、Arm Treasure Data・Salesforce Marketing Cloud(MAツール)・Tableau、R、XGBoost、etc
弊社契約実績:弊社から10名以上参画しているクライアント。-稼動のご調整も利き、安定した稼働となっております。-依頼部署は50名以上で構成されており、フリーランス・副業の方は60%程占めております。

必須スキル
・BI開発経験(Tableau(BI)エンジニア)
・クレンジング、AWSやGCP、bigquery、python等のデータエンジニアリング経験
・SQLに十分な経験
・AWS系DB経験 Athena, redshift等
・クラウド系のDWH経験
※全て満たしている必要はございません。
案件内容

【案件概要】弊社クライアント(HR系)のデータサイエンス部署にてデータマート開発実務を担当いただきます。データマート開発実装をメインにご担当いただきますが、要件定義にてクライアントと直接コミュニケーションを取っていただく必要があります。
【具体的な業務内容】・分析用データマート開発 ┗ 要件定義、データマート(テーブル)設計、SQL実装、テスト・バッチ基盤(digdag)の実装、運用保守・データエンジニアリング業務 ┗ データの収集、加工、集計・データマートの保守運用・TableauのViz作成

必須スキル
・データマート設計
・Redshift、BigQueryでの大量データのハンドリング(SQL実装、データマート設計)経験
・クラウド(AWS、GCP)、オープンソース(digdag、git)
・要件定義
案件内容

・バンダイナムコエンターテインメントのデータパイプライン設計・実装及び実装委託・DWH管理業務 (欠損,Issue,申請等の対応)・技術調査
【業務スコープ】・Google Cloud Platformをバックエンドとするデータ分析基盤の開発・運用・データ分析基盤と各事業部が有するデータを活用するための開発・運用・データ分析基盤にデータを収集するETL/ELTパイプラインの開発・データ分析基盤でデータを集計するワークフローの開発・上記を継続的に利用するための、ソフトウェアのバージョンアップや周辺ツールの開発(運用)・技術調査

必須スキル
1. SQLを用いたデータ抽出経験
2. Go、Java、Pythonなどを利用した開発経験
3. ETL/ELTのデータパイプライン設計/構築
4. ワークフローの構築経験(Digdag / Airflow etc.)
5. 監視ツールの導入・運用経験
6. Infrastructure as CodeおよびCI/CDの経験
7. コンテナ技術(Docker/Kubernetes)を用いた開発経験
8. GCPでの開発経験
9. データマネジメント(DMBOK)に関する理解や実践経験
案件内容

在庫最適化システムを支えるデータ基盤の構築を行っていただきます。自社サービスSaasの新バージョンをこの春リリースし、エンタープライズとの契約が急激に増えている中で、非常に多くの機能改善要望や機能追加要望が出てきています。顧客からの数億レコードにもなる大量データの加工をSQLやPythonを用いて作成し、集計後、データストアに投入する機構の構築に携わっていただきます。社員エンジニアとスクラムチームを形成し、スクラムイベントを通じて、開発メンバー全員でスプリントを消化していく体制になります。
【募集背景】新バージョンの機能追加が急務であり、エンジニアリソースが不足しているため。
【開発環境】・開発言語: Python、SQL・DB: Aurora(PostgreSQL互換)、Redshift・検索エンジン: Amazon Elasticsearch Service・ライブラリ・フレームワーク:Pandas、Numpy、Dask・インフラ: Amazon Web Services・AWS製品: ECS、S3、Step Functions、Lambda、CloudWatch・環境、ツール: Docker、GitHub、Jira、Slack、CircleCI、Sentry

必須スキル
・何かしらのシステム開発経験3年以上
・Pythonの実装経験1年以上
・Sparkなどの分散処理システムの経験
・SQLの実装経験(基本的なDDL、DMLに加え、結合、集計、集合、case文、
 Window関数などを理解している方)
・データ基盤の構築経験
・アプリケーションの設計経験
・AWSなどクラウド環境を利用したシステム開発の経験
案件内容

・脆弱性対応各種サーバ関連の脆弱性対応・サーバ保守業務Windows/Linuxパッチ適用ゲストOS構築セキュリティ等の各種エージェントインストール各障害調査対応

・各種MW保守(JBOSS、SVN、AVAMER等)各種構成変更作業セキュリティ等の各種エージェントインストール各障害調査対応

-環境;WindowsSV及びLinuxインフラ環境:Azureコンテナ環境:AKS

必須スキル
・Windows/Linuxサーバ保守運用経験(サーバ構築/障害対応/パッチ適用等)
・AzureもしくはVMware使用した業務経験(バーチャルマシン作成含む)
案件内容

【業務内容】機械学習チームにおける技術支援
目先は下記案件を推進・担当1)チャットボットAIの性能向上2)需要予測AIの研究開発■役割:データサイエンティストおよびプロジェクト推進■業務内容:・課題出し、方針検討・メンバーの指示、フォロー、レビュー・チーム内および事業部とのMTG、報告・学習/テストデータ作成、分析、アルゴリズム実装、評価■開発言語、技術・開発言語、環境:Python、JyupterLab、Pytorch・アルゴリズム:チャットボット:BERT需要予測:ランダムフォレスト、ロジスティック回帰、線形回帰他■体制:5名

必須スキル
• Python, SQLの経験がある方
• 機械学習に対する幅広い知識(画像、自然言語、テーブルデータ)
• 実務としてモデルを開発し、運用まで落とし込んだ経験
• 高いコミュニケーションスキル
• 能動的に行動できる方
案件内容

・データ分析基盤の大規模な、追加開発・改造を実施予定。・DWH設計者(データ設計など)もしくは、DWH基盤構築(ツール設計など)

必須スキル
・データウェアハウス構築経験者
・データレイク+データウェアハウスを使ったデータ分析基盤構築経験者
案件内容

業務:プロダクトの分析業務を支える基盤の機能拡充ならびに運用自動化に関わる開発を担当いただきます。・データウェアハウスへのデータ連携を含む、データ基盤で動作するETL処理の開発・データパイプラインを管理・運用・監視する仕組みづくり・取り扱うデータのセキュリティやガバナンス対応・各種運用業務の自動化とドキュメント整備
環境:プログラミング言語: Python, SQLバージョン管理: Git/GitHubデータ分析基盤、環境: AWS, SnowflakeETLツール: trocco, Airbyte, dbt(導入準備中)IaCツール: TerraformBI: Redash, Google Spread Sheet, Looker Studioコミュニケーション: Slack, ClickUp, Notion

リモートワークをベースとしていますが、週1日程度出社日を設けています。週5未満の場合でも、出社日、スクラムイベントのため火曜は勤務日となるようお願いします。

必須スキル
・データ基盤技術の基本的な理解(OS, RDBMSなど)
・データウェアハウスの設計とETL処理の開発経験
・Pythonなどのスクリプト言語を用いた開発経験
案件内容

・データ連携案件管理:データ供給元からデータ利用者のために日程調整や管理業務・基盤構築:事業要請に応じたデータレイク,データウェハウス,マートの実装,テスト・基盤移行

■営業担当からのコメント■Pythonでゴリゴリコードを書くというよりも、基盤移行やマート管理等、管理系の業務が主となります。

必須スキル
・リーダー経験
・SQLを理解し,DDLやDMLを使いこなせること(最低でも相関サブクエリやGROUP BY,HAVING句が使用できる)
・pythonを用いたコーディング経験が1年以上(C#, javaなどの高級言語での経験でも可)
・AWS Redshift,Glue,Lambda等を用いた分析環境構築・運用経験が1年以上
案件内容

クライアント社内で運用している需要予測・発注数量最適化ソリューションにおけるデータパイプライン、MLパイプラインの運用、エラー発生、顧客問い合わせ時の初動調査のご担当をいただきます。複数のクライアントの運用を行っており、各パイプラインの運用、さらには、将来的にはその開発まで対応を可能な方を期待しています。

必須スキル
– GCP (BigQuery, GKE, Composer)
– Docker
– Airflow
– python
MLOpsの経験
Pythonを使ったデータ分析の経験

検索結果700件中521-530件