ELTの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:26

ELTの案件を探す

案件内容

データユーザーからの要求をくみとり的確なデータとフローの設計を行い、パイプラインの構築やパイプラインを動かすデータ分析基盤の運用保守を行う。

必須スキル
・クラウドデータ基盤サービスでの開発運用保守経験(特にBigQueryの経験があると良い)
・データ基盤運用の範囲におけるSQL(DDL/DML、CTE、副問い合わせ、information_schemaの利用、など)
・Linux / ネットワークの基礎知識(Linuxサーバの運用保守経験があると良い)

 

以下技術要素参照(*が特に重要)
– ETL/ELTツール
– *Embulk
– trocco
– digdag
– BIツール
– Redashなど
– GoogleCloud
– *BigQuery
– Cloud Storage(updated)
– Data Transfer
– IAM
– Cloud Monitoring / Cloud Logging
– その他
– *Linux
– *Bash
– Git
案件内容

・データ種の追加やアプリケーション追加によるデータ処理(Go言語・コンテナアプリケーション)の追加
・既存データ基盤(オンプレ、Kubernetes環境)の改修・検証・テスト
・各種ミドルウェア(CI/CD、監視、DB)の導入・検証・テスト
・データ基盤の量産
・顧客との打ち合わせ

必須スキル
・LinuxによるWEBアプリの開発経験3年以上
・コンテナアプリケーションの開発経験1年以上
・Docker・Kubernetes等でのコンテナ運用経験1年以上
・システムアーキテクチャ設計経験1年以上
案件内容

・エンタープライズ企業向けにAI Saasサービスを展開している企業のPJ
・データエンジニアとしてデータプラットフォームの企画およびアーキテクチャ設計や、データパイプラインの設計・構築といった業務を担当

必須スキル
・PythonまたはTypeScriptでの開発経験3年以上
・データ基盤および分析基盤などの開発・構築経験3年以上
・AWS、GCP等の各種クラウドサービスの利用およびスケーラブルなクラウドベースのアーキテクチャデザイン・実装経験
・ETLやELTの実装経験
・TerraformなどInfrastructure as Codeの運用経験
案件内容

・エンタープライズ様向けにAI Saasサービスを展開されている会社様になります。
・具体的にはデータエンジニアとしてデータプラットフォームの企画およびアーキテクチャ設計や
データパイプラインの設計・構築といった業務に携わって頂きます。
【環境】
・AIを活用したモダンな開発環境がございますので、今後のスキルアップに繋がりやすいかと存じます。

必須スキル
・PythonかTypeScriptでの開発ご経験が3年以上
・データ基盤および分析基盤などの開発・構築ご経験が3年以上
・AWS、GCP等の各種クラウドサービスの利用およびスケーラブルなクラウドベースの
アーキテクチャデザイン・実装経験
・ETLやELTの実装のご経験
・TerraformなどInfrastructure as Codeの運用ご経験
案件内容

・CI/CD環境構成およびライフサイクルの自動化の範囲決定におけるアドバイスの実施
・上記に必要な検証環境構築作業および要件定義の資料化
※上記取り組みを下記の①顧客案件および②社内研究開発の作業として行います 
①製造業向けデータ分析基盤構築:要件定義
・クライアントの持つデータ分析基盤の構築ソリューションをベースに顧客向けにシステムを構築する
・AWS Glueを中心したETL/ELT機能とBIツール(Power BI)、DWH(Snowflake)が主な構成要素となる
・要件定義の作業になるため、クライアントとともに一緒に検討を行える方がベター
・今のところ、下記のようなサービスが必要なのではと思案中
 AWS Glue
 AWS Lambda
 AWS Code Pipeline
 AWS Code Commit
・合わせて以下のサービスを組み合わせてジョブの実行管理・フロー制御を行う想定
 AWS Step Functions(詳細フロー制御)
 Amazon Managed Workflow for Apache Airflow(実行管理)
上記の設定内容をリポジトリへ保存してバージョン管理を行うことも必要と考えているため、これらの統合についてもテーマとなる
②研究開発
・上記顧客案件にデリバリーするためのソリューションの整備環境として、CI/CD環境を社内に構築する
・Snowflakeを用いたデータ基盤の構築を早期化するソリューション

必須スキル
・AWSを活用したCI/CD環境の構築実績
・プロジェクトにおける要件定義の実施実績
・AWS Glueを中心したETL/ELT機能及びBIツール(Power BI)、DWH(Snowflake)に関連する知見
案件内容

グループに属する事業会社のデータを集約し、ビジネス活用を推進していきます。
目的達成のために柔軟に設計でき、自由度高く開発することができます。
グループ全体のDXプロジェクトの一部であり、ビジネスインパクトが大きく、長期的に続く案件へアサインいただきます。

【業務スコープ】
■データの品質管理
・データレイクに格納されたデータの異常値調査
・テーブル定義書の作成

■データマート開発
・データマート要件定義・設計・開発

必須スキル
・SQLを用いたデータ抽出経験 ETL/ELTのデータパイプライン設計/構築
・Go Python などを用いた開発経験
・GCP / AWSでの開発経験
・英語でのドキュメント読解能力
案件内容

・病院で使用している備品などの発注量や使用量の可視化・分析をtableauを使って行っている。(tableauサーバーに溜まったデータをtableau Readerを使用して可視化)

データパイプラインのチューニングと
可視化する内容の改修がメインスコープ。

必須スキル
・tableauの使用経験3年以上
・ETL/ELTのデータパイプライン設計/構築
・SQLを用いたデータ抽出経験
案件内容

【業務内容】
・データ要素追加、アプリケーション追加によるデータ処理(Go言語)の追加
・既存データ基盤(オンプレ、Kubernetes環境)の改修、検証、テスト
・各種ミドルウェア(CI/CD、監視、DB)の導入、検証、テスト
・データ基盤の量産
・顧客折衝

必須スキル
・Kubernetesを利用したインフラ設計構築(インストール)・運用経験
・アプリケーション開発経験(Go言語/Java/Python等でデータ処理経験がある方歓迎)
案件内容

 データ分析基盤(データクリーンルーム)の設計/開発へ参画いただきます。
 既存のデータ分析基盤案件を対応しているチームをベースに、
新しくData Engineeringチームの設立を行う予定で、その構成メンバーを募集しています。
 Data Engineeringチームの主な活動は、同社が対応を進めているデータベース、
クラウドベースのDWH案件の各種開発サポート、アドホック対応、
PoC対応など全般を各種案件チームの一員としてご対応いただきます。
 状況によって、開発されたデータベース、データウェアハウスの検証作業も担当いただきます。
 対応すべき案件の幅が広いことから、幅広いご経験と知見を必要としますが、
案件の開発状況に対し、リーダーからメンバー適正に合わせた業務割り振りを行います。
 その為、専門分野でない未経験領域への挑戦意欲や、新しいテクノロジーに対する
学習意欲の高い方が求める人物像となります。

必須スキル
 ・SQLを用いたDB構築経験 ⇒ 
 ・下記いずれかのロール経験 ⇒ 
  (データエンジニア、データアナリスト、データベースエンジニア、アナリティクスエンジニア)
 ・下記いずれかのクラウドベースのデータウェアハウスの利用スキル ⇒ 
  (Snowflake、Amazon Redshift、BigQuery、Azure Synapse Analytics)
 ・様々な種類のデータ(構造化/非構造化)を扱った経験 ⇒ 
 ・データインジェスト、データパイプライン、ETL、ELT、データモデルの概念の理解 ⇒ 
 ・リレーショナルおよびディメンショナルデータ構造、理論、実践に関する知識 ⇒ 
案件内容

データ分析基盤の開発・構築を行なっていただきます。

必須スキル
・BigQuery、Redshift、Hadoop、Snowflakeなどの分散データ基盤の利用経験
・アプリケーション開発経験 または ETL/ELTツールを利用した開発経験
・RDBMSの利用経験

検索結果26件中11-20件