NEW
正社員
大手エンタープライズ企業のデータ活用を支えるため
課題の深掘りから提案まで一貫して担当し、
事業に深く入り込んで価値を創出します。
Snowflake・BigQueryなどクラウドDWHを中心に、
数十億〜数千億レコード規模のビッグデータを扱う環境です。
<具体的な仕事内容>
【分析基盤の構築】
■Snowflake/BigQuery/RedshiftなどDWHの設計・構築
■テーブル設計、データモデリング
■クエリチューニング・性能改善
■セキュリティ・権限設計・コスト最適化
【データ収集〜ETL/ELT】
■Airflow/Lambda/Cloud Runなどを用いたパイプライン構築
■データ収集、前処理、加工処理の自動化
■品質チェック機構の整備
【分析・可視化】
■Tableau/Looker/Amplitudeによるダッシュボード開発
■KPI設計、メトリクス定義
■事業課題に踏み込むインサイト抽出・レポーティング
「可視化して終わり」ではなく、事業貢献に直結する分析を行います。
【AI領域との連携】
■AIモデル用データセットの作成
■特徴量設計・評価指標策定
■生成AI/LLMを活用したプロジェクトとの協働
【案件例】
■大手通信キャリア
・数千億レコード規模のビッグデータ分析
・Snowflake/Tableauによる分析基盤・可視化
・最適な分析手法の提案とインサイト抽出支援
■大手アパレルメーカー
・世界中の店舗、ECデータをBigQueryに統合
・Airflowによるパイプライン自動化
・自律的にPDCAを回せる運用体制を構築
■化粧品メーカー
・AIモデルをクラウドへ移行
・API化し外部システムから利用可能に
■その他
・リアルタイム異常検知基盤
・LLM/RAGを活用した資料再構築PoC
【開発環境・業務範囲】
データ分析エンジニアとして、大手エンタープライズ企業の
データ活用を支える基盤構築・分析支援・可視化・AI連携まで
幅広く担当します。
扱うデータは数十億〜数千億レコード規模と非常に大きく、
Snowflake・BigQuery・Redshiftなど最新のDWH環境を活用しながら
高度な分析を行える点が特徴です。
【分析基盤・データパイプライン】
■Snowflake/BigQuery/Redshiftを用いたDWH構築
■Airflow/Step Functions/Lambda/Cloud RunによるETL/ELT設計
■S3/Cloud Storageによるデータレイク環境構築
■大量データの最適化、テーブル設計、パフォーマンスチューニング
【BI・可視化・インサイト抽出】
■Tableau/Looker/Amplitudeなどによる可視化
■ダッシュボード設計、指標定義、KPIモデリング
■分析結果からの示唆出し、次フェーズ提案
【AI・アルゴリズムとの連携】
■AIモデルのクラウドリフト(GCP/AWS)
■FastAPI/FlaskによるAPI化
■LLM×RAGなど生成AI活用支援
■異常検知・最適化モデルとの連携パイプライン構築
【技術スタック】
Python/SQL/TypeScript/Docker/GitHub
AWS:Lambda/ECS/Athena/Aurora/DMS
GCP:BigQuery/Cloud Run/Vertex AI
DWH:Snowflake/Redshift/BigQuery
その他:Airflow/Tableau/Looker/Amplitude
【働き方】
■10年以上フルリモート
■Slack中心、必要に応じてオンラインMTG
■朝会+Wikiで情報共有し、リモートでも孤立しない環境
クラウド・データ・AIを横断する技術に触れながら、
大規模プロジェクトで実践的スキルを伸ばせるフィールドです。
【担当プロジェクトの魅力】
ほとんどが大手エンタープライズ企業との直取引。
業界は通信・アパレル・化粧品・医療・海運・観光など多岐にわたり、
データは数十億〜数千億レコード規模。
分析基盤構築にとどまらず、分析企画・インサイト抽出・可視化・AI連携まで、
データ活用の「入口から出口」までを担える点が大きな魅力です。
また、Snowflake・BigQuery・Redshift・Tableau・Looker・Amplitude
などプロジェクト要件に合わせて幅広い技術を扱える機会があります。
データ基盤と分析の両面を深められます。
生成AI(GPT/Claude/Gemini/RAG/MCP)案件、
リアルタイム異常検知基盤など、先端領域にも挑戦可能。
分析結果が売上や施策改善に直結する手応えを得やすい環境です。
【得られるスキル・経験・機会】
■Snowflake/BigQuery/Redshiftを中心としたDWHスキル
■AWS/GCPを用いた大規模データパイプライン構築
■Tableau/Looker/Amplitudeによる可視化・KPI設計
■分析からインサイト抽出・提案までの一連の実務
■AIモデルのAPI化、LLM/RAGを活用した先端分析
■大手エンタープライズのDX課題を深く理解する経験
■事業サイドとの長期伴走によるデータドリブンな体制づくり
直取引で裁量が大きく、企画・基盤・分析・AI連携まで幅広く携われるため、
データ分析エンジニアとしての専門性と、
クラウドやアーキテクチャ設計の実務スキルを同時に伸ばせます。
クラウド×データ×AIの3領域を横断できる数少ない環境です。
【身につくスキル・キャリアパス】
データ収集・基盤構築・分析・AI活用まで一連のプロセスに関わるため、
DWH、ETL/ELT、クラウド、可視化、分析など幅広い技術を横断的に習得できます。
キャリアは固定ではなく、本人の希望に合わせて以下の方向に広げられます。
■データ分析の専門家として可視化・分析企画を深める
■DWH・パイプラインに強いデータエンジニアへ拡張
■クラウド基盤に特化したアーキテクトへ
■AIエンジニアと連携しAI活用の技術領域へ進む
■将来的には自社サービス開発へ参画する道も選択可能
「データ×クラウド×AI」の掛け合わせで
長期的に市場価値を高められる環境です。
【入社後の成長サポート】
入社後は、既存プロジェクトの理解を深めるために
議事録作成や社内Wikiの確認からスタートすることも可能。
全体像をつかみながら自然にチームへ馴染めるようサポートします。
コミュニケーションは基本的にSlack。
必要に応じてオンラインMTGを実施し、
ほぼ毎日の朝会で進捗・課題を共有。
フルリモートでも連携が密で、
孤立しない仕組みが整っています。
技術書・資格試験・カンファレンス参加費は会社が全額負担。
AWS/GCP資格、Tableau認定など、
成長したい領域を自由に伸ばせる支援制度があります。
ポイント1多彩な技術に触れられる!直取引でDXの本質課題に挑む フルリモートOK!生成AI×クラウド×ビッグデータ最前線
大手エンタープライズ企業のDXを支える
データ分析エンジニアとして活躍しませんか?
分析基盤の整備、Snowflake・BigQueryによる
大規模データ分析、可視化ダッシュボード開発、
AIモデル活用、内製化支援など、
データビジネスの全工程に一社で対応できる点が強み。
直取引比率は約9割で、事業側と深く関われる環境です。
【データ分析に最適化された技術環境】
Snowflake/BigQuery/Redshift
Tableau/Looker/Amplitude
Airflow/Python/SQL
など様々な技術に触れられる貴重な環境!
扱うデータは数十億〜数千億レコード規模。
仮説立案〜分析・検証、次フェーズ提案まで
一気通貫で関われる実践環境があります。
【10年以上のフルリモート運用】
Slack中心のコミュニケーション、
必要に応じたオンラインMTG、
毎日の朝会で情報のズレを最小化。
全国どこからでも働けます。
【成長への投資は100%会社負担】
技術書・資格試験(AWS/GCP/Tableau)
カンファレンス参加費は全額会社負担。
データ×クラウド×AIを横断してキャリアを広げられます。
まずは「話を聞いてみたい」という応募も大歓迎です!
ポイント2「提案止まり」を脱出し「最適な価値」を届けるエンジニアへ
前職は世界的に知られるクラウドベンダーで
クラウド技術支援を担当していました。しかし立場上
顧客の課題に対して提案や助言までしか関われず、
自らの手で最後まで解決しきれないことに
物足りなさもありました。
もっと現場に踏み込み、
アーキテクチャから実装・運用まで責任を持ちたい。
その思いを叶えられる場として選んだのが当社。
クラウド・データ・AIを横断し、
最適な技術を自ら選びながら
本当に使われる仕組みを作れます。
扱うデータはテラバイト〜ペタバイト級。
世界的な大企業や国内大手通信キャリアなどの
基盤構築に携わり、唯一の最適解を生み出す
実践力が磨かれます。
社内には得意領域を持つスペシャリストが集結。
質問すれば必ず知見が返ってきて、
技術も視野も自然と広がります。
(Tさん)
ポイント3信頼できる仲間と充実した環境で、AI×DXの最前線へ
前職ではIT系スタートアップで数理システムなどの
AI開発を担当していましたが、事業環境の変化により
次のキャリアステップを考えるタイミングが訪れました。
当社の社長やCTOとは以前から縁があり、
会社の実績はもちろん技術力の高さや
信頼できる人柄も知っていたため
安心して入社できました。
現在はLLM関連のプロジェクトを担当し、
国内大手小売企業をはじめとする
多様な案件に関わっています。
前職では同じ案件に数年携わることが多かった一方、
当社は業界も課題も異なる様々な最新プロジェクトに
関われるため経験の幅が圧倒的に広がります。
さらに、特定技術に縛られず
顧客のために最適な手法を選択できる裁量が大きく、
エンジニアとして主体的に価値を出せるのが魅力です。
(Sさん)
ポイント4取材担当者より
他社と一線を画す同社の特徴は
「データ×クラウド×グローバル」を軸に
エンタープライズの課題を本質から解決するポリシー。
データ活用の入口(収集・整理)から、
基盤構築・分析・可視化・AI活用といった出口まで
一社で全てを担える技術力は希少。
大手企業の直取引が約9割という信頼につながっています。
取材を通して印象的だったのは、
手段ではなく価値に向き合う文化。
AWS・GCP・Snowflake・各種AIフレームワークなど、
様々な技術に触れられる環境があります。
10年以上続くフルリモート、外部資金に頼らない経営など
健全で無理のない働き方を大切にしている点も魅力です。
社員インタビューでも
「顧客に深く入り込んで課題を解決できる」
「技術もキャリアの幅も広がり続ける」という声が多く、
エンジニアとして長く活躍できる土台が整っていると感じました。
| 募集職種 |
ITエンジニア系(ソフトウェア、ネットワーク) > ITコンサルタント、アナリスト、プリセールス > システムアナリスト ITエンジニア系(ソフトウェア、ネットワーク) > 運用、監視、テクニカルサポート、保守 > システム導入・運用トレーニング ITエンジニア系(ソフトウェア、ネットワーク) > 運用、監視、テクニカルサポート、保守 > 運用、監視、保守職、テクニカルサポート(その他) |
|---|---|
| 雇用形態 | 正社員 |
| 勤務時間 | 9:00~18:00(実働8h/休憩1h) 【目安残業時間】 20時間以内 |
| 勤務地 | 【フルリモート・在宅勤務OK】 日本全国どこにお住まいの方でもお気軽にご応募ください! ※本社オフィス/東京都渋谷区道玄坂1-2-3 渋谷フクラス17F |
| 交通 | JR各線「渋谷駅」南改札西口より徒歩約1分 東急東横線、田園都市線、京王井の頭線、東京メトロ「渋谷駅」より徒歩約3分 |
| 給与 | 【想定年収600万円~1200万円】 月給50万円~100万円+交通費+賞与(業績による) ※経験3年以上の場合 ※月給額は、経験・スキルに応じて決定 ※試用期間6ヶ月あり(期間中の給与・待遇に差異はありません) ※固定残業代(20時間分)を含みます ※超過分の残業代は別途全額支給 ◎経験3年未満の場合は【月給30万円以上】 【賞与について】 賞与あり(業績に応じて支給) |
| 待遇・福利厚生 | ■賞与あり(業績に応じて支給) ■昇給年1回 ■社会保険完備 ■交通費規定支給(月2万円迄) ■私服勤務OK ■フルリモート勤務OK(設立時から実施中) ■副業OK(会社の事業と競合しない業務かつ、 弊社業務を主軸に据えれば、どんな副業でもOK) ■新入社員研修(ポテンシャル採用のみ実施) ■社内ベンチャー制度 ■資格取得支援 ■人間ドック ■オフィス内禁煙 |
| 休日・休暇 | 【年間休日】130日 ■完全週休2日制(土・日) ■祝日休み ■年末年始休暇 ■慶弔休暇 ■有給休暇 ■産前・産後休暇 ■育児休暇 ※個人に裁量を委ねており、業務調整が可能であれば週休3日などもOK。 |
募集背景
大手エンタープライズ企業からの
データ活用・分析基盤構築の依頼が急増しており、
Snowflake、BigQueryを中心とした
データ活用・分析の需要も拡大しています。
今後は自社サービス開発にも尽力。
当社のさらなる事業成長を支える
データ分析エンジニアを積極採用しています。
| 応募資格 | ■必須スキル(下記いずれかの実務経験) ・PythonまたはSQLを用いたデータ分析の実務経験 ・BIツール(Tableau/Looker/Amplitudeなど)での 可視化・ダッシュボード作成経験 ・DWH(Snowflake/BigQuery/Redshift等)の利用経験 ・ETL/ELTパイプラインの設計〜実装経験 ・記述統計、仮説検証など分析基礎の理解 ・非エンジニアを含むメンバーとのコミュニケーション力 ・技術調査を自走しキャッチアップできる方 ※学歴不問 【採用担当より】 「データ活用の入口から出口まで」を支援する当社では、 分析だけでなく基盤理解や技術選定にも関われます。 分析経験を軸にキャリアの幅を広げたい方を歓迎しています。 【歓迎する経験・スキル】 ■歓迎スキル(必須ではありません) ・AWS/GCPを用いた分析基盤の構築経験 ・データモデリング(Star Schema/DDL設計等) ・Pythonでの分析ロジック最適化やコード整備 ・RAG/生成AI/MLモデルの基礎知識 ・Amplitude等のプロダクト分析経験 ・Git/Dockerなどの開発環境経験 ・英語ドキュメントを読める方 【過去の採用例】 ■SIerのデータ基盤エンジニア → 分析特化へ ETL・DWH経験を活かし、Looker×BigQueryで大規模分析を担当。 ■事業会社のデータアナリスト → 技術領域を拡張 Tableau・SQL中心から Snowflake、Airflow、AI活用まで担当領域が拡大。 |
|---|---|
| 応募方法 | このページ内の「応募」ボタンよりご応募ください。 |
| 選考プロセス | まずはWEBからご応募ください 詳しい選考プロセスについてはご応募先にご確認ください |
| 会社名称 | グローバルプレナーズ株式会社 |
|---|---|
| 所在地 | 【採用連絡先】 東京都渋谷区道玄坂1-2-3 渋谷フクラス17F |
| 事業内容 | 【データ×クラウド×グローバルを軸とした事業展開】 グローバルプレナーズ株式会社は、大手エンタープライズ企業に対し「データ活用の入口から出口まで」 を一気通貫で支援するテクノロジーカンパニーです。データ収集・整理・統合、分析、可視化、AI活用、クラウド移行までワンストップで提供しています。 <提供サービスの特徴> ■クラウド基盤構築(AWS/GCPなど) ・データ分析基盤、DWH、データレイクの設計構築 ・Snowflake/BigQuery/Redshiftなどの環境整備 ・オンプレミス資産のクラウド移行や性能改善にも対応 ■データ分析プラットフォーム構築 ・数十億〜数千億レコード規模のビッグデータ分析 ・Tableau/Looker/Amplitudeによる可視化・ダッシュボード開発 ・分析手法の提案、インサイト抽出の伴走支援 ■AI・アルゴリズム開発 ・AIモデルのクラウドリフト(GCP/AWS) ・生成AI導入 ・異常検知、最適化モデル、画像診断AIなどのカスタム開発 ・PoC〜API化〜本番運用までを包括的にサポート ■内製化・DX推進支援 ・データ活用組織の立ち上げ ・スキルトラッキング、運用チーム育成 ・顧客が「データ活用を自走できる」状態まで伴走 <技術と組織の特色> ■エンジニアの裁量が大きく、幅広い技術領域を横断できる ■データの企画・基盤構築・分析・AI・可視化まで一人が広く経験可能 ■10年以上のフルリモート運用 ■外部資金に依存しないBootstrappingによるシンプル経営 顧客価値に集中できる環境が整っており、最新技術へのキャッチアップを支援する文化も根づいています。データ・クラウド・グローバルの3軸をさらに発展させ、事業創造し続ける組織への進化を目指しています。 |
| 代表者 | 代表取締役:樋栄 健一 取締役CTO:新村 拓也 |
| URL | https://www.globalpreneurs.jp/ |
| 設立 | 2012年6月4日 |
| 資本金 | 20,500,000円 |
| 売上 | - |
| 従業員数 | - |
| 平均年齢 | 30代 |
| 主要取引先 | ■大手通信キャリア ■国内トップクラスのアパレル製造小売企業 ■大手化粧品メーカー ■海運会社、医療関連会社、観光サービス企業など 9割以上が直取引で、長期プロジェクトも多数。 膨大なデータと大規模クラウドの案件に携われる点が、当社の大きな強みです。 |
転職したいけど、求人を探す時間がない人は、かんたん登録で、お仕事探しがらくらくスムーズになる
転職EXに会員登録しよう!
転職EXの会員登録をすると、以下の便利な機能がすぐにご利用になれます。ぜひご利用ください。
新規会員登録 (無料)気になるリストに保存できる件数は20件までです。
20件以上保存するにはログインが必要です。
ログイン後は、今までログイン中気になるリストに入っていた案件も見ることができます。