案件内容 |
データ配信のバッチ実装となります。 複数のクライアントに向けて定期的にデータを送るバッチの製造を担当となります。 窓口となる営業担当やPMとコミュニケーションを取りながら進めて頂きます。 既存アーキテクチャでのデータ連携実績がありサンプルとなるコードは存在しているため、ビジネスロジック部分の開発がメインとなります。 【開発環境】 ・言語:Kotlin(Ktor) ・DB:Aurora PostgreSQL, AWS Athena、BigQuery |
---|---|
必須スキル | ・システム開発の上流工程の経験
・Java 、C言語、COBOLなどの静的型付け言語の経験
・エンジニア実務経験5年以上
|
DB/基盤系の案件一覧
過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。
該当件数:700件
DB/基盤系の案件を探す
案件内容 |
今後の世界的な課題であるエネルギー問題に対するシステム的な取り組みとなります。そのため社会意義の高い要件を新しい技術領域で対応していく事になります。現在、国内の一部地域を利用した分散電源のデータを共有化するためデータ連携基盤の構築が進められております。技術的な背景はクラウド・DWHの技術的な知見が必要となります。業務設計は出来ておりますが、アーキテクチャー設計は出来ていないため、抽象的な要件の非機能要件化を進めて頂きます。 |
---|---|
必須スキル | ・クラウド基盤における知識/実務経験
・技術的に有ると望ましい物
Kafka / AirFlow / Spark等のデータ分析基盤のクラウドエンジニア側での知識/経験
コンテナオーケストレーション(Kubernetes)知識/経験
※重要:DWH(TiDB/Snowflake)の実務経験
|
案件内容 |
GCP構築業務 ・データパイプライン設計構築 ・DWH、データマート設計構築 GCP(BigQuery,Dataflow等) |
---|---|
必須スキル | GCP構築経験 |
案件内容 |
概要: エンドクライアントの分析基盤の設計、開発、運用を担当いただきます ・外部とのデータ連携 ・データ仕様や処理のスキームについての要件擦り合わせ ・AWS S3, Google Cloud Storage, Google Drive と言った各種ストレージと BigQuery 間でのデータの転送処理を Cloud Functions と Airflow を用いて実装・管理 ・IAM の発行・管理、データのアクセスコントロール ・データサイエンティストと意見交換しながら、データの取得や前処理、予測モデル・予測値生成、および抽出のバッチ化・運用 ・データ処理に係るコストのモニタリング、最適化施策 ・データ連携に係るプライバシーマークへの対応 フラットな組織で、自身で物事を推進する文化です。 |
---|---|
必須スキル | ・社内外と的確かつ迅速に物事を相談して進めるためのコミュニケーションスキル
・データベース、処理スキームの設計、運用
・ビッグデータの処理スクリプト開発(大量ファイル・大容量データにおける文字コード変換、文字置換、一括解凍・圧縮等)
・Python, Java, Go, Rのいずれかの言語による簡易なデータ分析スクリプト開発
|
- 〜¥850,000 /月
- サーバーサイドエンジニア
- 東京都
- ゲーム・エンタメ
案件内容 |
既存開発タイトルのサーバサイドエンジニアとしてアサインいただきます。 ・管理ツールの開発 ・カスタマーサポートの調査依頼対応 ・仕様オリエンテーション参加 ・デバッグ対応 インフラ:AWS、GCP コンテナ:Docker 開発言語:php7.1~、shell フレームワーク:php(Codelghiter、laravel、lumen) データストア:redis、memcache、MySQL ミドルウェア:Nginx、Apache HTTP server ソース管理:git(gitlab、github) チャットツール:Slack タスク管理:Wrike |
---|---|
必須スキル | ・Webサービスのサーバーサイド開発経験 (PHP)3年以上
・ゲーム開発についての理解
|
案件内容 |
概要: エンド企業へGCP導入にあたってのデータエンジニアを募集しています。 ・顧客折衝、要件整理、ドキュメンテーション ・データパイプライン設計構築 ・DWH、データマート設計構築 GCP(BigQuery,Dataflow等) |
---|---|
必須スキル | ・GCP経験
・データエンジニアリング経験
|
案件内容 |
弊社最初のプロダクトである、鉄スクラップ解析アプリケーションに搭載されるAIのモデルをAIチームと協業しながら、パイプラインを構築し、本番環境でモデルのトレーニング、テスト、デプロイ、配信、監視、保守、運用を担当いただきます。もちろんチームと相談して分担はしますが、データ収集、前処理といったデータエンジニア領域での活躍も期待しております。 まだまだ出来上がった製品ではなく、ユーザーと近い距離で開発をすることができることも魅力の一つです。 |
---|---|
必須スキル | – MLOps、SREに関連した業務開発経験
– Docker等のコンテナ技術の基礎的知識
– Git / GitHubを利用したチーム開発経験
– AWS等のクラウドシステムを利用した開発経験
|
案件内容 |
IoTデバイスを管理するためのKubernetes基盤において、設計、開発、テスト、運用、運用改善業務に携わっていただける方を募集しています。 開発環境 ・Kubernetes・FLUX・Datadog・Grafana/Loki・Apache/Kafka・JAVA/Python・Github・TerraForm・Helm・Azure |
---|---|
必須スキル | ・Kubernetes及びエコシステムの構築、設定経験
・Gitを利用したコード開発の経験(一般的なGitコマンドを使用した開発が行えること)
・IaC(Terraform等)の利用経験
|
案件内容 |
大規模データ収集基板構築(オンプレにて構築)に伴い、システム検証/設計、ミドルウェア選定、パフォーマンス検証等にご協力いただける方を募集します。 ・アプリケーションの改修、機能追加 ・新基盤移行に伴う運用面対応(システム運用設計や手順整備、セキュリティ設計等)、運用機能の開発 開発環境 ・Java・Hadoop(Cloudera)・Apache kafka・Apache spark・Kubernetes/OpenShift/vCenter |
---|---|
必須スキル | ・疎結合アーキテクチャインフラの開発、設計経験
・ミドルウェア導入、設計、構築、検証の経験(DB製品、Apache/Kafka、Hadoop等)
|
案件内容 |
IoTデバイスを管理するためのKubernetes基盤において、設計、開発、テスト、運用、運用改善業務に携わっていただける方を募集しています。 ・Kubernetes・FLUX・Datadog・Grafana/Loki・Apache/Kafka・JAVA/Python・Github・TerraForm・Helm・Azure |
---|---|
必須スキル | ・クラウド環境(AWS,Azure,GCP)を利用した開発経験、構築経験
・コンテナ環境の利用経験
・Gitを利用したコード開発の経験(一般的なGitコマンドを使用した開発が行えること)
|
検索結果700件中501-510件