GCPの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:346

GCPの案件を探す

案件内容

データパイプラインの構築エンジニア
主業務:要件に合わせルールに則ったデータモデリングを行い、各基盤のツール群を使ってデータ加工するパイプラインバッチの構築を担当いただきます。

技術要素(★が特に重要)
GoogleCloud
★Cloud Composer2(及びAirflow2)
★Cloud Dataproc(Apache Spark(scala))
Cloud Build
Cloud Storage
BigQuery
Cloud Monitoring / Cloud Logging
AWS
★Kinesis firehose
★SQS / SNS
★ECS
★Lambda
ECR
S3
Cloud Watch
その他
GithubActions
Terraform

必須スキル
・データモデリング力とバッチ設計能力が高い方
・Pythonを利用したデータ分析/開発経験
・高度なSQL(CTE、副問い合わせ、Window関数の利用など)の知識
・AWS、GCPいずれかのクラウドサービスの開発及び運用経験
・Linux / ネットワークの基礎知識
案件内容

大手からベンチャー企業まで様々なお客様に導入いただいている業務システムを開発、改修していただきます。

・開発体制:アジャイル(定期ミーティングを実施、継続的なデプロイを実施)
・コードレビュー:本番にデプロイされるコードは全てコードレビューまたはペアプログラミング実施

フロントエンド、バックエンド、AI等でのご経験を活かせる環境です。複数の言語も取り入れているので、キャリアに合わせて伸ばすことも可能です。

・言語:Ruby,Python,Go,PHP
・フレームワーク:Ruby on Rails,Django,Zend Framework,Angular
・ライブラリ:React
・クラウド:AWS,GCP
・DBサーバー:MySQL
・管理ツール:Ansible,Terraform
・その他ツール:Git,GitHub,Docker,CircleCI,Fluentd,ElasticSearch,Slack
・PC:ノート型のWindowsもしくはMacintosh機※必要な場合にはデスクトップ型も支給
・外部ディスプレイ:23インチ前後のサイズを支給

必須スキル

・Rubyの開発実務経験2年以上

案件内容

P.A.I.の研究から生まれた高度なAI要素技術群を活用し、現在6000社以上の企業に導入が進んでいる会議自動文字起こしツールを中心に、24時間365日無人対応が可能なサービス、チャットオペレーターAIサポートシステム、オンライン会議での多言語コミュニケーションを可能にするサービスなど、あらゆるビジネスに活用可能なAIソリューションを展開し、ローンチから約2年で国内トップシェアまで成長している企業でございます。

日本発のAI企業としてユニコーン規模の上場が現実的になり、現在直近の上場およびアジアへの進出を見据えた組織、事業作りに取り組んでおりモバイルアプリケーションエンジニアとしてネイティブアプリケーション開発を担っていただける方を募集しています。

【想定している業務内容】
・AI技術に関する当社プロダクトのネイティブアプリケーション開発全般
・開発プロジェクトのマネジメント
・進捗管理

【技術環境】
言語:Flutter, TypeScript, Python
フレームワーク:Vue.js, Nuxt.js, Node.js
データベース:Cloud Firestore
インフラ:AWS, GCP, Azure, Cloud Firebase, Cloud Functions
ソースコード管理:Bitbucket
プロジェクト管理ツール:Notion, JIRA
コミュニケーションツール:Zoom, Slack, Google Workspace
・勤務時間:10:00~18:00

必須スキル
PMとして管理をしつつ自分が開発・実装まで行っていただける方が望ましいです。
・iOS および Android OS 両OSでのモバイルアプリケーションの開発経験 または Flutterでのモバイルアプリケーション開発経験
・開発プロジェクト/チームのマネジメント
・リーダー経験
・モバイルアプリケーションの審査手続き経験(iOS/Android両OSで合計5本程度目安)
・クラウド利用経験
・Gitの知識、経験
案件内容

・クライアントグループ全社のデータパイプライン設計・実装及び実装委託
 (APIやパブリックデータの取得/整備)
・DWH管理業務 (欠損,Issue,申請等の対応)

【業務スコープ】
・Google Cloud Platformをバックエンドとするデータ分析基盤の開発・運用
・データ分析基盤と各事業部が有するデータを活用するための開発・運用
★データ分析基盤にデータを収集するETL/ELTパイプラインの開発・管理
・データ分析基盤でデータを集計するワークフローの開発
・技術調査

必須スキル
・ 複雑なSQLを用いたデータ抽出経験
・ ETL/ELTのデータパイプライン設計/構築
・ワークフローの構築経験(Digdag / Airflow etc.)
・ GCPでの開発経験
案件内容

データを用いた意思決定や課題解決に活用するため、各事業・プロダクト・サービスの全てのデータを一元的に収集・保存・管理するデータ基盤の構築を担うポジションです。

データ基盤の開発・改修・保守運用
・データ基盤の物理・論理データモデル設計・開発・保守運用
・データ基盤のシステムアーキテクチャの設計
・データパイプライン (ETL) の設計・開発・保守運用

[開発環境]
インフラ:GCP (データ基盤) / AWS (関連システム)
データパイプライン (ETL):CloudComposer (Airflow)
DWH:BigQuery
その他インフラ管理:Docker、GKE / GAE / CloudRun
可視化ツール:Google Data Portal / Tableau
分析環境:Jupyter Notebook / Google Colab / Google Cloud ML
その他:GitHub / Slack / Notion

[チーム体制(業務委託の方含む)]
・統括ディレクター: 1名
・データエンジニア: 1名
・機械学習エンジニア: 1名 (兼務)
・データサイエンティスト: 3名
・技術顧問: 1名

必須スキル
エンジニアリング
・GCP や AWS などの主なクラウドサービスにおける開発経験。
・DWH や業務系などのデータベースの設計・開発・運用経験。
・データパイプライン (ETL) の設計・開発・運用経験。
・基本技術情報試験レベルのコンピューターサイエンスの知識。
データ専門性
・SQLを記述する事が出来る。 (数十行位) 
・基礎集計を通じてデータの全体像や質を確認することができる。
ビジネス
・事業会社における情報システム企画の経験 (どんなシステムがどんな処理をどんな順番で実施するかの要件定義レベル)
・論理的思考力。 (定量思考力、要約力、仮説構築能力など) 
・ドキュメント作成能力。 (見栄えではなく、構成の組み立て方やわかりやすさが担保出来るか)
・プロジェクトマネジメント能力 。 (完了定義。スコープ策定。制約を考慮した優先度決定。タスク洗い出し)
案件内容

・データ抽出、データ集計
・顧客へのレポート作成・提出
・分析手法を用いた分析企画・改善提案
・課題解決に必要なAIモデルの活用・開発
・その他分析業務に関わる開発支援等

必須スキル
・データ分析を用いた顧客折衝経験2年以上
・SQL/Pandasによるデータ抽出・集計・加工、及び分析の経験
・Pythonや関連するライブラリを用いたデータ収集・可視化・機械学習実務経験
・クラウドサービス(GCP / AWS)を用いた環境構築
・PL経験
案件内容

・エンタープライズ様向けにAI Saasサービスを展開されている会社様になります。
・具体的にはデータエンジニアとしてデータプラットフォームの企画およびアーキテクチャ設計や
データパイプラインの設計・構築といった業務に携わって頂きます。

【参画メリット】
・フルリモートですので、ご自身のリラックスできる環境で作業が可能です。
・AIを活用したモダンな開発環境がございますので、今後のスキルアップに繋がりやすいかと存じます。

【就業形態について】
現状、メンバーのほとんどはフルリモートにて業務を行っております。
週に何日かご出社をご希望の際にはご相談ください。

必須スキル
・PythonかTypeScriptでの開発ご経験が3年以上
・データ基盤および分析基盤などの開発・構築ご経験が3年以上
・AWS、GCP等の各種クラウドサービスの利用およびスケーラブルなクラウドベースの
アーキテクチャデザイン・実装経験
・ETLやELTの実装のご経験
・TerraformなどInfrastructure as Codeの運用ご経験
案件内容

概要 :
昨年度まで少人数での事業運営を行ってきたが、近年、電子書籍業界の大きな成長が見られる中で、今年度より強化事業の位置付けとなった。高い目標を掲げるとともに、大幅な人員増加を行っている。
事業ゴール達成に向けて、プロダクト開発や、プロモーションおよび編成(WEBやアプリ上での書籍の掲載)の施策効果の最大化・効率化を目的とし、PDCAサイクルを日々回せるよう、以下を整備したい
・WEB、アプリの主要指標の見える化  (KPIツリー、ダッシュボード整備)
・WEB~アプリ横断でのユーザーの購買行動のモデル化  (コホート分析、ファネル分析など)
・ユーザーセグメント、コンテンツ群の優先度 見える化

対応業務(ミッション) :
[1] 計測環境整備(0.5人月程度)
WEB/アプリ横断のクロスプラットフォーム分析を目的とし、主に、Google Analytics 4により安定的な計測環境の整備がミッション
20名ほどの社員からなる事業運営チームの中で、分析チームの支援を行う。分析チームは、5月より7名からなるチームであるが、WEB/アプリ計測スキルを持つ人員が不足している。
WEB/アプリともに計測タグの整備が行き届いていない箇所があり、ユーザー行動の把握や、ユーザーセグメントごとの購入商品の分析などが着手できていない。

求める人物像 :
・お客様目線で市場トレンドやユーザー動向をもとに、新たなアイディアを出したりチャレンジできる方
・社内外の関係者と良好な関係を構築し、複数部署が関わるプロジェクトに対応できる方

必須スキル
・Google Analytics 4 によるWEB/アプリ横断のクロスプラットフォーム分析スキル・経験
 ※ ただし、実装は別メンバー
・ダッシュボード作成(GA4探索レポート, LookerStudio など)
・ドキュメント作成スキル(powerpoint, confluenceなど)
・コミュニケーションツール(Slack中心、microsoft Teams)
案件内容

【概要】
・広告配信における傾向の分析及び、異常の検知
・WEB広告の種別、サイト内での掲載位置、閲覧ユーザーの情報から成果の確認
・ユーザの行動分析を行い、最も効果が高くなる広告を推測する
・Treasure Data等を経由して連携されるユーザーデータの管理
・データパイプラインの保守運用

【開発環境】
Python、PyTorch、Hive、PySpark、PostgreSQL、Apache Airflow
Google Cloud Dataproc、BigQuery、Cloud Composer
GitHub、Slack

必須スキル
・実務でのデータパイプラインを用いたデータ処理経験
・SQL、Linux、Gitの経験
・Pythonを用いた開発経験
・GCP/AWSなどパブリッククラウド上での開発経験

検索結果346件中161-170件