エネルギー・インフラの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:53

エネルギー・インフラの案件を探す

案件内容

全グループ会社でDomo導入を進めており、現在VBAマクロで出力している帳票を
BI化してDomoへ移植しています。Domoでのデータ加工に加え、Domo利用における
ユーザ向けの運用フロー作成や問い合わせ対応および業務の適正化など
導入における課題解決やレビューなどもご対応いただきたいと考えています。
※Domo:https://www.domo.com/jp

必須スキル
・DomoもしくはTableauでのデータ加工の経験
・BIツール導入支援経験
・OracleなどDBへの接続経験
案件内容

某エネルギー事業会社様のデータアナリティクス部署にて、下記案件を始めとする数理最適化プロジェクトにおいて、データサイエンティストとしてアサイン予定になります。
・最適化ロジック構築:ビジネス要件をもとに定式化や最適化アルゴリズムを構築。
構築したロジックの検証や改良も実施。
・プロトタイプ開発:必要であれば、PoC用の簡易システムを実装。
・本番システム開発:主に本番システムのロジック部分を実装。
・ドキュメント作成:定式化資料、クラス図などのドキュメントを適宜作成。

必須スキル
・数理最適化の理解と開発経験
・ドキュメンテーションスキル
・コミュニケーション能力
案件内容

【概要】
電力会社自社媒体におけるデジタルマーケティングの、
ダッシュボード数値を活用し、データ抽出・処理・設計・分析を行う

【業務内容】
・GAダッシュボードの数値を活用し日次・週次実績更新
・SEO対策の効果検証、追加対策案の策定
・GA4の使い方レクチャー
・BigQueryを活用したアクセス解析
・QUEST
・ダッシュボード(lookerstudio)管理修正
・データ抽出(QUEST、Tableau等)

必須スキル
・分析経験(Google Analytics/lookerstudio/QUEST、Tableau等)
・DB経験
・ダッシュボード作成経験
・Google Analytics(GA4)の経験
案件内容

Azure databricks を使った、データエンジニア業務

必須スキル
・SQL、Python
・データ分析環境構築、データ加工・パイプライン構築経験
案件内容

・デジタルマーケティングを用いて、キャンペーン、集客を行っていくPJ
・電力会社の自社媒体におけるデジタルマーケティング施策の入稿実務及び、データ抽出・処理・設計

必須スキル
・分析経験(マート設計構築、Google Analytics/Python、SQL)
・DB経験
・Google Analytics/Adobe Campaign/BigQuery等の業務使用経験
案件内容

現在国内エネルギー系⼤⼿企業がエンド顧客となるデータ基盤構築PoCプロジェクトが進⾏中。
PoCを通してインフラアーキテクチャの策定、⼤まかなデータパイプラインのフローを策定した9⽉以降の本番環境構築では、インフラ構築からセキュリティ対応、より多くのデータパイプライン構築を予定しており、データエンジニアの拡充を⾏っている。

データ基盤要件定義
データレイクに保存するデータの形式の洗い出し (CSV, JSON, 画像ファイ
ル etc…)
データソースのインターフェイス特定 (REST API, FTP etc…)
データ加⼯(ETL)要件ヒアリング
データレイク設計 (Hadoop File System)
DWH設計/テーブル定義 (Apache Hive, Spark, HBase etc…)
データフロー設計 (Apache NiFi)
バッチアプリケーション作成 (Java, Shellスクリプト)
インフラセキュリティ対応 (SSL化対応、AD認証連携 etc…)

   

環境
オンプレサーバー (現地作業等は無し、リモートから接続)
OS: RHEL8HPE Ezmeral Data Fabric (Hadoop, Hive, Spark, NiFi etc…)
データ分散処理基盤にまつわるpache系OSSをまとめたパッケージ製品
(サポートが付くだけのようなイメージ)
HPE Ezmeral Runtime (≒ Kubernetes)
OpenShift等に⽐べ、より純正Kubernetesに近い
構成
データレイク: HDFS, minio(≒S3), HBase
DWH: Hive or Spark
ワークフロー: NiFi or Airflow
データ加⼯: Hive, Spark (シェルスクリプト/Java or Python)
BI: Tableau, Palantir (本募集スコープの作業範囲外)
体制
アジャイル開発 (スクラム)
メンバー10名程度
デイリーで午前にスクラムミーティング有り

必須スキル

3年以上のバックエンドまたはインフラ開発経験

案件内容

大規模システム運用プロジェクトにおける、下記のご支援をいただきたい。
・サービスレベルの基準値検証
・領域ごとの業務量(チケット)を定義
・運用保守体制の試行運用
・運用の定着化、課題検討

必須スキル
・基幹システムにおける運用設計経験
・運用プロセスに係る課題検討が可能
案件内容

某エネルギー事業会社様のデータアナリティクス部署にて、
下記案件を始めとする数理最適化プロジェクトにおいて、ソフトウェアエンジニアとしてアサイン予定になります。
・オペレーションの最適化 
【業務スコープ】
①ビジネス課題の特定 & 分析の設計
②ビジネス要件整理
③定式化
④最適化アルゴリズム開発
⑤プロトタイプ実装
⑥本番システム実装
⑦検証
⑧導⼊

⑤、⑥のサイクルを担当頂く想定。

必須スキル
・Pythonを用いた開発経験
・Pytestを用いたテスト設計~テストのご経験
・データサイエンスプロジェクトのご経験
・GithubActions経験
・ソフトウェア設計能⼒
案件内容

某エネルギー事業会社様のデータアナリティクス部署にて、
下記案件を始めとする数理最適化プロジェクトにおいて、ソフトウェアエンジニアとしてアサイン予定になります。
・オペレーションの最適化 
【業務スコープ】
①ビジネス課題の特定 & 分析の設計
②ビジネス要件整理
③定式化
④最適化アルゴリズム開発
⑤プロトタイプ実装
⑥本番システム実装
⑦検証
⑧導⼊

⑤、⑥のサイクルを担当頂く想定。

必須スキル
・Pythonを用いた開発経験
・Pytestを用いたテスト設計~テストのご経験
・データサイエンスプロジェクトのご経験
・GithubActions経験
・ソフトウェア設計能⼒

検索結果53件中31-40件