【データ集計・分析補佐】メガバンク向けETL開発の求人・案件
- 〜¥600,000 /月
- データ集計・分析補佐
- 東京都
- IT・情報通信
案件内容 |
作業概要 :2~3名チームのリーダー業務 |
---|---|
必須スキル | ・ETL開発経験(5年以上)
・リーダー経験
|
過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。
該当件数:9件
案件内容 |
作業概要 :2~3名チームのリーダー業務 |
---|---|
必須スキル | ・ETL開発経験(5年以上)
・リーダー経験
|
案件内容 |
【概要】 【業務内容】 |
---|---|
必須スキル | ・定常的に運用するデータマートの開発・改修経験
・定常的に運用する集計プログラムの設計経験
・PythonもしくはSQLを用いたデータ分析、データ集計経験(3年以上目安)
・他者のコードのレビュー経験
|
案件内容 |
クライアントが保有するビッグデータの利活用を進めていくにあたりAWSでのデータの加工、修正をお願いいたします。 |
---|---|
必須スキル | ・ AWSの基礎的な知識/構築経験(AWS SAA相当の知識)
・以下のプログラミング経験
– AWSと連携する機能を設計・実装・テストした経験
– Python, SQL、シェルスクリプトをメインで使用。別言語の経験でも可
・ コミュニケーションスキル
・ Linuxの基本的なコマンド操作
|
案件内容 |
pandas ライブラリを利用した ETL 処理 担当フェイズ |
---|---|
必須スキル | pandas ライブラリを利用した ETL 処理に慣れている方
— データソース:csv, parquet, Redshift/RDS table, boto3 API
— 加工処理:カラムの追加・削除、行列抽出、値の置換、四則演算、日付演算等
— アウトプットの書き込み:S3(csv, parquet, json), Redshift, RDS
静的解析ツールのチェック結果に基づいてコードの修正が可能な方(flake8, mypy)
ユニットテストを実装できる方(pytest)
|
案件内容 |
【概要】 |
---|---|
必須スキル | ・Python分析経験(pandas)
・データ加工、抽出経験
・DWH構築経験
・基盤構築経験
|
案件内容 |
特典型サービスの改善に向けたデータ分析データマート開発・改修業務。 |
---|---|
必須スキル | ・Python分析経験2~3年以上
・SQLを問題無く扱えるスキル
・AWS上での業務経験
・ビッグデータ分析に携わった経験
|
案件内容 |
AWS上にIoTデータを集積したレイクハウスを設計・構築いたします。 |
---|---|
必須スキル | ・AWS上でのデータ分析基盤を構築した経験
・AWS Glueを前提としたPython(PySpark)によるETL開発経験
・Gitを前提とした開発フローの経験
|
案件内容 |
【業務内容】 【ポイント】
【開発チームと配属先について】 チームには現在18名のエンジニアが在籍しています。
【技術キーワード】
|
---|---|
必須スキル | – Scala,Java,Pythonなどを用いた開発経験 3年以上
– ApacheSpark,PySparkなどを用いたETL処理の開発・保守経験 1年以上
– SQLを用いた開発経験 3年以上
– AWSを利用した開発経験
– Dockerなど、コンテナ技術を利用した開発経験
– GitHubでのPRを利用した開発経験
|
案件内容 |
特典型サービスの改善に向けたデータ分析、データマート開発/改修、データ調査、加工、集計業務 |
---|---|
必須スキル | ・Pythonを扱えるスキル
・SQLを問題無く扱えるスキル
・AWS上での業務経験
|
検索結果9件中1-9件