Agence data & dashboards B2B Agence data & dashboards B2B à Marseilleà Marseille
Marseille concentre 390+ scale-ups (French Tech Aix-Marseille) — 1er port français + bassin méditerranéen, écosystème ZeBox unique en Europe sur le maritime tech. C'est notre terrain de jeu prioritaire en data & dashboards, avec un focus sur MaritimeTech, LogisticsTech, MedTech AP-HM. Concrètement, on tourne avec : Metabase pour la BI exec, dbt Core modélisation versionnée, Looker Studio pour les vues exec — Growth Strategist senior aux manettes. Bilan type sur 6 mois : 5 à 10 dashboards exécutables livrés sur 6 à 10 semaines, parfois dbt tests sur chaque modèle. Tissu local couvert : CleanTech, LogisticsTech et le reste de MaritimeTech & port (CMA CGM, GPM), logistique & supply chain, MedTech (AP-HM, Inato), énergie & cleantech. Modalités : Sur devis (audit + build + stack complète, 6 à 10 semaines). Audit data sur devis. À distance par défaut, RDV physique à Marseille Innovation si pertinent.
L'accompagnement data complet d'une agence B2B à Marseille
Une équipe data senior accessible IRL pour les acteurs basés à Marseille (Euroméditerranée), et 100 % en visio pour les PME, ETI et scale-ups SaaS B2B partout en France.
Diagnostic
Audit data complet
Inventaire des 12 à 25 sources, cartographie des doublons (même métrique calculée trois fois), identification des trous (rétention non calculée), validation des 5 à 10 questions COMEX prioritaires. Roadmap chiffrée 6-10 semaines.
12+sources auditées
AuditHubSpotStripeGA4
Cadrage
Choix stack & provisioning
Choix raisonné warehouse (BigQuery, Postgres Supabase, ClickHouse), ELT (Airbyte open source vs Fivetran managé), BI (Metabase, Looker Studio, Cube). Provisioning GCP, AWS ou Supabase selon votre infra existante.
1 sem.stack provisionnée
BigQueryPostgresAirbyteMetabase
Ingestion
ELT Airbyte / Fivetran
Connecteurs HubSpot, Pipedrive, Stripe, GA4, Mixpanel, PostHog, Aircall, Intercom, produit. Sync incrémentale CDC, gestion changements de schéma, alerting Slack sur échecs. Airbyte si self-host, Fivetran si managé.
Couches staging / intermediate / marts. Tests automatiques unique, not_null, accepted_values, relationships. Documentation auto-générée dbt docs. CI/CD GitHub Actions sur pull request. Chaque métrique définie une seule fois.
100%métriques versionnées
dbt Coredbt CloudSQLMeshGit
Acquisition
Dashboard acquisition
Canal d'acquisition, CAC blended et par canal, attribution multi-touch (first / last / linear / data-driven), volume de leads par source, qualité par segment. Croisement GA4 + HubSpot + Stripe pour LTV par canal.
8+canaux trackés
GA4HubSpotAttributionCAC
Pipeline
Dashboard pipeline B2B
Entonnoir MQL → SQL → RDV → Win, vélocité par stage, taux de conversion par segment, ARR weighted, prévision quarter. Vue par owner SDR/AE, par secteur, par taille deal. Comparaison vs cible mensuelle/quarter.
5+stages trackés
HubSpotPipedriveSalesforceARR
Rétention
Dashboard rétention & cohortes
Cohortes mensuelles de rétention, Net Revenue Retention (NRR), Gross Revenue Retention (GRR), churn par segment et par cause, expansion vs contraction, time-to-churn. Vue par plan, par secteur, par cohorte d'acquisition.
Synchronisation des modèles dbt vers HubSpot, Salesforce, Intercom, Marketo. Lead score enrichi, segment at-risk churn, propriétés compte (ARR, plan, secteur). La data sort enfin de l'entrepôt pour servir l'opérationnel.
3-5syncs en production
CensusHightouchReverse ETLSync
Alerting
Alerting Slack métriques critiques
Alertes Slack sur chute MRR > 5 %, anomalie d'acquisition (volume canal), baisse de conversion par stage, échec de sync ELT. Détection statistique des anomalies via z-score ou Prophet. Pas de bruit, que des signaux actionnables.
10+métriques surveillées
SlackAlertingAnomaliesMonitoring
Handover
Formation & data dictionary
Formation équipe data interne ou référent ops sur dbt et Metabase. Création de modèles, débogage de tests, déploiement CI/CD. Documentation complète versionnée dans votre Git. Data dictionary : chaque colonne, chaque métrique a une définition unique.
100%équipe autonome
FormationDocumentationdbt docsGit
Pourquoi Uclic à Marseille
Pourquoi choisir notre agence data & dashboards à Marseille
Ni un freelance dispersé qui produit des rapports à la main, ni une grosse agence avec des juniors qui livrent du Looker Studio jetable. Une équipe data senior qui livre une stack durable — Airbyte / Fivetran, BigQuery / Postgres, dbt, Metabase / Looker — code et warehouse à vous. Service identique en visio partout en France.
←Glissez pour voir la différence→
Sarah B.
Head of Marketing
7 ans d'exp · solo · multi-hats
Thomas L.
Founder · CEO
Doit trancher les arbitrages marketing
pilotent 4 prestas épars
0 communication entre eux
Rémi P.
Media Buyer
Mid · 3 ans
Agence Meta
Meta Ads
Lina D.
Creative Junior
Alternant M2
Agence Meta
Meta Creative
Julien M.
SEO Consultant
Senior · 8 ans
Agence SEO
Google Search
Camille B.
Content Writer
Mid · 4 ans
Agence SEO
WordPress
Marc O.
SDR freelance
Senior · solo
Freelance
Lemlist
Léa M.
Email Lifecycle
Mid · 5 ans
Freelance
Brevo
Alex K.
Data Analyst
Senior · 2 j/mois
Freelance
GA4 + Excel
Agent IA Zapier
Hallucine les leads
Cassé · tombe 2×/sem
Bricolé interne
Zapier bancal
4 calls hebdo12h coordination/sem0 vision globale
Wladimir Delcros
Expert Growth Marketing
Ex-Head of Growth · Codingame & Muzzo
Alexis Christine-Amara
Expert Business Development
Ex-Head of Sales · CodinGame · Cofounder
pilotent des experts freelance
Communication fluide entre eux
Théo Lambert
SEO Lead
GoogleSemrushAhrefs
+ Agent IA
SEO Writer IA
Anaïs Roux
Paid Ads Lead
GoogleMetaTikTok
+ Agent IA
Bid Optimizer
Marc Fontaine
Outbound · SDR
LinkedInLemlistHubSpot
+ Agent IA
ICP Enricher
Sofia Perez
Content & Brand
HubSpotNotionWebflow
+ Agent IA
Content Assist
Scoring IA
Qualif leads auto
ClaudeAPI
En production
24/7
Outreach IA
Séquences dynamiques
Clauden8n
En production
24/7
Insights IA
Dashboard auto
ClaudeGA4
En production
24/7
vision 360°1 piloteagents IA en production
Stack data classique
Data & Dashboards Uclic 2026
Méthode data Marseille
Notre méthode data en 6 étapes
Une méthode rodée sur des PME, ETI et scale-ups SaaS B2B. Comités hebdomadaires de 45 minutes en visio, ateliers stratégiques en présentiel possibles à Euroméditerranée pour les comptes basés à Marseille.
Étape 01 / 07Audit data & cartographie des sources
01S1 Audit1 semaine
Audit data & cartographie des sources
1 semaine· Étape 1
On part d'un inventaire complet — HubSpot, Pipedrive, Stripe, GA4, Mixpanel, produit, Notion, Airtable. On cartographie les doublons (la même métrique calculée trois fois avec trois résultats différents) et les trous (la rétention que personne ne calcule). On valide avec le COMEX les questions business prioritaires : CAC blended, LTV par canal, NRR par cohorte. Si la question principale n'a pas de réponse claire aujourd'hui, c'est par là qu'on commence.
Inventaire des 12-25 sources
Cartographie des doublons et trous
Validation questions COMEX
Roadmap data priorisée
Livrable· Cartographie data + roadmap chiffrée 6-10 semaines
02
02S1-S2 Stack1 semaine
Choix de la stack & provisioning
1 semaine· Étape 2
Choix raisonné du warehouse — BigQuery si volume > 100 GB ou besoin scaling élastique, Postgres Supabase ou Neon si < 50 GB et besoin transactionnel, ClickHouse si analytique haute volumétrie. Choix de l'ELT — Airbyte open source self-hosted (gratuit, contrôle complet) ou Fivetran (managé, plus cher mais zéro maintenance). Choix de la BI — Metabase si self-hosted, Looker Studio si écosystème Google, Cube.dev si embedding produit. Provisioning sur GCP, AWS ou Supabase selon votre infra.
Warehouse : BigQuery / Postgres / ClickHouse
ELT : Airbyte vs Fivetran
BI : Metabase vs Looker Studio vs Cube
Provisioning cloud (GCP/AWS/Supabase)
Livrable· Stack provisionnée + accès équipe
03
03S2-S3 ELT2 semaines
ELT & ingestion des sources
2 semaines· Étape 3
Connexion des sources prioritaires via Airbyte ou Fivetran — synchronisation incrémentale, gestion des changements de schéma, alerting Slack sur échecs. Sources B2B typiques : HubSpot (deals, contacts, companies, engagements), Stripe (charges, subscriptions, invoices, customers), GA4 (events, sessions via export BigQuery), Mixpanel ou PostHog (events produit), Aircall (calls), Intercom (conversations). Fréquence : horaire pour HubSpot/Stripe, daily pour GA4.
Connecteurs Airbyte/Fivetran
Sync incrémentale par CDC
Alerting Slack sur échec
Documentation des schémas
Livrable· 12+ sources synchronisées dans le warehouse
04
04S3-S5 dbt2 semaines
Modélisation dbt & data dictionary
2 semaines· Étape 4
Couches dbt structurées en staging (données brutes nettoyées et typées), intermediate (jointures et logique métier — unification customer_id, attribution multi-touch) et marts (tables business prêtes à exposer — fct_pipeline, dim_customer, fct_revenue). Tests dbt systématiques : unique, not_null, accepted_values, relationships. Documentation auto-générée via dbt docs — chaque colonne, chaque métrique a une définition unique versionnée dans Git.
Staging / Intermediate / Marts
Tests dbt automatiques
Data dictionary versionné Git
CI/CD dbt sur PR
Livrable· Repo dbt versionné + data dictionary
05
05S5-S7 BI2 semaines
Dashboards exécutables
2 semaines· Étape 5
5 à 10 dashboards Metabase ou Looker Studio organisés par fonction. Acquisition : canal, CAC blended, attribution multi-touch. Pipeline : entonnoir MQL → SQL → RDV → Win, vélocité, conversion par stage, ARR weighted. Rétention : cohortes mensuelles, NRR, GRR, churn par segment. Finance : ARR, MRR, LTV, payback CAC. Chaque dashboard répond à une question opérationnelle précise — pas de graphique décoratif, pas de KPI vanité.
Dashboard Acquisition (CAC, attribution)
Dashboard Pipeline (entonnoir, vélocité)
Dashboard Rétention (cohortes, NRR)
Dashboard Finance (ARR, LTV, payback)
Livrable· 5-10 dashboards exécutables livrés
06
06S7-S8 Reverse ETL1 semaine
Reverse ETL & activation outils
1 semaine· Étape 6
Synchronisation des modèles dbt vers les outils opérationnels via Census ou Hightouch. Score de lead enrichi (intent + fit) poussé dans HubSpot pour priorisation SDR. Segment at-risk churn envoyé dans Intercom pour campagne ciblée. Propriétés de compte (ARR, plan, secteur) synchronisées dans Salesforce. La data sort enfin de l'entrepôt pour servir l'opérationnel — pas juste pour faire des graphiques.
Census ou Hightouch
Sync warehouse → HubSpot
Sync warehouse → Intercom
Sync warehouse → Salesforce
Livrable· 3-5 syncs reverse ETL en production
07
07S8-S10 Formation1-2 semaines
Alerting, handover & formation
1-2 semaines· Étape 7
Alerting Slack sur les métriques critiques (chute du MRR > 5 %, anomalie d'acquisition, baisse de la conversion par stage). Formation de l'équipe data interne ou d'un référent ops sur dbt et Metabase — création de modèles, débogage de tests, déploiement CI/CD. Documentation complète remise et versionnée dans votre Git. Vous restez propriétaire de la stack, des modèles et des dashboards — pas de lock-in éditeur, pas de licence Uclic.
Alerting Slack sur métriques
Formation équipe interne
Documentation versionnée Git
Handover complet propriété
Livrable· Stack autonome + équipe formée
Tarifs data & dashboards Marseille
Trois paliers, tout sur devis
Audit data + roadmap, build dashboards sur warehouse existant, stack complète 6 à 10 semaines. Pas d'abonnement caché à un éditeur cloud. Audit cadre la proposition avant toute signature, à Marseille comme partout en France.
Diagnostic
Audit
Sans engagement
0€
On audite vos 3 piliers — Inbound, Outbound, IA & Dev. Vision 360°, reco chiffrées.
Audit Inbound, Outbound, IA & DevAnalyse de vos canaux d'acquisition (SEO, Ads, Content), de votre prospection outbound et de votre stack IA/automatisations en place.
Score sur les 3 piliersNote /100 par pilier : Inbound (captation), Outbound (prospection) et IA & Dev (industrialisation).
Audit complet des sources, des modèles existants et des dashboards en place. Identification des doublons, trous et priorités. Roadmap chiffrée pour décider de la suite.
Cartographie des 12-25 sourcesInventaire HubSpot, Pipedrive, Stripe, GA4, Mixpanel, PostHog, Notion, Airtable, produit. Identification des connecteurs manquants et des doublons de données.
Audit des dashboards existantsRevue des Google Sheets, Looker Studio, Metabase, Tableau en place. Identification des métriques calculées plusieurs fois avec définitions divergentes.
Validation questions businessAtelier 90 min avec le COMEX pour cadrer les 5 à 10 questions prioritaires (CAC blended, NRR, LTV par canal, attribution multi-touch).
Recommandation stackChoix raisonné warehouse (BigQuery vs Postgres vs ClickHouse), ELT (Airbyte vs Fivetran) et BI (Metabase vs Looker Studio vs Cube) selon volume et budget.
Stack data complète et industrielle en 6-10 semaines : ELT, warehouse, dbt versionné, 5 à 10 dashboards, alerting et reverse ETL pour activer la data dans HubSpot/Intercom/Salesforce.
Audit + build dashboards inclusTout le périmètre du forfait Build, plus la couche dbt et le reverse ETL pour passer en mode industriel.
5 à 10 dashboards par fonctionAcquisition, pipeline, rétention, finance, produit. Chaque dashboard répond à une question opérationnelle, pas de KPI vanité.
Reverse ETL Census/Hightouch3 à 5 syncs warehouse → outils opérationnels. Lead score, segments at-risk churn, propriétés compte enrichies dans HubSpot/Salesforce/Intercom.
Alerting Slack & handover opsAlertes sur chute MRR, anomalie acquisition, baisse de conversion. Formation équipe data ou ops interne. Documentation complète versionnée.
Des résultats Data & dashboards qui parlent plus fort que les slides.
PME, ETI et scale-ups SaaS B2B accompagnés sur Data & dashboards (et au-delà) — chaque cas est livré avec ses chiffres bruts, son contexte et ce qu'on a réellement fait.
Heads of Data, COO et CFO B2B. Et ils valident notre stack data.
Ils dirigent des PME, ETI et scale-ups B2B. Ils commentent publiquement nos analyses sur la modélisation dbt, le choix BigQuery vs Postgres, l'arbitrage Metabase vs Looker Studio et nos dashboards de pilotage pipeline et rétention. Chaque vignette ouvre le fil d'origine.
“
Intéressant. Personnellement j'ai fais l'inverse d'une certaine manière. Par contre je garde toujours le code pour créer des api qui seront utilisé par n8n. Donc au final c'est un mixte des deux.
Je pense aussi que ça dépend de ce que tu veux faire sur le long terme.
En revanche une chose qui est sur, c'est que si tu veux avoir une flexibilité total, savoir coder est important. (J'inclus le vibe coding)
C'est vrai que discover c'est une vraie option ! Discover, c’est l’effet "WAOUH"… jusqu’au jour où t’es plus dans le flux. Oui, c’est puissant. Oui, ça peut exploser ton trafic en 24h. Mais si tu ne construis pas une stratégie éditoriale cohérente hors de Discover, tu restes dépendant d’un algo aussi capricieux qu’un enfant en bas-âge.
✅ Alors oui pour l’utiliser.
✖️ Mais non pour en faire un pilier
Entièrement d'accord ! L'ère du "juste assez bon" est révolue. Dans un marché saturé, il est essentiel de se démarquer dès le premier jour. Un MVP doit certes être viable et minimal, mais cela ne signifie pas qu'il doive être une version tronquée de la vision finale. Investir dans une user experience de qualité dès le début peut fortement accélérer l'acquisition
incroyable, je viens de lui filer un repertoire avec des centaines de software que je veux scrapper (sur une dizaine de pages au total). De manière autonome, il a tout récupérer et fait une requete google pour chaque software pour aller trouver l'url de la company page LinkedIn.
Tout ça avec 1 seul prompt de 3 lignes et zéro erreur!
Merci pour la reco !
Je suis dans le biz depuis + de 20 ans. Le code m'a toujours manqué en tant que SEO. Mais j'ai des grosses connaissances. Par contre la Vibe code m'a ouvert d'autres portes justes énormes. Aujourd'hui je me suis mis à React, Vite, Node, Python, et je code ce dont j'ai besoin. 😍
Incroyable ! L’IA devient vraiment un accélérateur pour automatiser des tâches web, libérer du temps et oser de nouveaux projets. Pour quelqu’un qui s’intéresse au dropshipping, à l’automatisation et à l’e-commerce, c’est une vraie révolution.
Merci pour ce partage très informatif. C'est impressionnant de voir le nombre croissant de développeurs et la jeunesse dominante dans ce secteur. Cela montre à quel point la technologie et le développement sont essentiels pour notre avenir.
Géraud Lamazère 🪅
AI Entrepreneur & Personal Coach for Founders and Leaders
Intéressant ! Ça ouvre la voie au futur marché (potentiellement énorme) du referencement IA. Les entreprises et les personnes qui se positionneront dessus rapidement et efficacement auront un avantage concurrentiel certains sur les autres.
Maxime Hébert
Je transforme vos programmes d'innovation et d'entrepreneuriat en succès concret
J'adore ce genre de bidouille Wladimir 🙏🏻
Est-ce que tu as des hacks sur la partie email étudiant ?
Je pensais acheter un nom de domaine .school , faire une mini landing d'une fake school , générer un email.
Car .edu inaccessible 😅
Top, merci pour l'astuce ! Je viens de tester et c'est Veo 2 qui est proposé dans l'offre étudiante sur le site US (qui est bien gratuite pendant 12 mois). Par contre, il y a bien un accès à Veo 3 (en version limité) :)
Anais Sevrain
Experte en croissance digitale ⚙️ SEO + CRM + Automation
Ce type d’outil change vraiment la donne en automatisant des tâches complexes avec une simplicité incroyable.
Une nouvelle ère s'installe où l’IA devient un véritable assistant personnel ultra efficace
Matthieu Salib
CEO Mindsales - je te génère 8 à 33 rdv /mois - 📩 Envoi “Setter” en DM pour en s
Intéressant. Personnellement j'ai fais l'inverse d'une certaine manière. Par contre je garde toujours le code pour créer des api qui seront utilisé par n8n. Donc au final c'est un mixte des deux.
Je pense aussi que ça dépend de ce que tu veux faire sur le long terme.
En revanche une chose qui est sur, c'est que si tu veux avoir une flexibilité total, savoir coder est important. (J'inclus le vibe coding)
C'est vrai que discover c'est une vraie option ! Discover, c’est l’effet "WAOUH"… jusqu’au jour où t’es plus dans le flux. Oui, c’est puissant. Oui, ça peut exploser ton trafic en 24h. Mais si tu ne construis pas une stratégie éditoriale cohérente hors de Discover, tu restes dépendant d’un algo aussi capricieux qu’un enfant en bas-âge.
✅ Alors oui pour l’utiliser.
✖️ Mais non pour en faire un pilier
Entièrement d'accord ! L'ère du "juste assez bon" est révolue. Dans un marché saturé, il est essentiel de se démarquer dès le premier jour. Un MVP doit certes être viable et minimal, mais cela ne signifie pas qu'il doive être une version tronquée de la vision finale. Investir dans une user experience de qualité dès le début peut fortement accélérer l'acquisition
incroyable, je viens de lui filer un repertoire avec des centaines de software que je veux scrapper (sur une dizaine de pages au total). De manière autonome, il a tout récupérer et fait une requete google pour chaque software pour aller trouver l'url de la company page LinkedIn.
Tout ça avec 1 seul prompt de 3 lignes et zéro erreur!
Merci pour la reco !
Je suis dans le biz depuis + de 20 ans. Le code m'a toujours manqué en tant que SEO. Mais j'ai des grosses connaissances. Par contre la Vibe code m'a ouvert d'autres portes justes énormes. Aujourd'hui je me suis mis à React, Vite, Node, Python, et je code ce dont j'ai besoin. 😍
Incroyable ! L’IA devient vraiment un accélérateur pour automatiser des tâches web, libérer du temps et oser de nouveaux projets. Pour quelqu’un qui s’intéresse au dropshipping, à l’automatisation et à l’e-commerce, c’est une vraie révolution.
Merci pour ce partage très informatif. C'est impressionnant de voir le nombre croissant de développeurs et la jeunesse dominante dans ce secteur. Cela montre à quel point la technologie et le développement sont essentiels pour notre avenir.
Géraud Lamazère 🪅
AI Entrepreneur & Personal Coach for Founders and Leaders
Intéressant ! Ça ouvre la voie au futur marché (potentiellement énorme) du referencement IA. Les entreprises et les personnes qui se positionneront dessus rapidement et efficacement auront un avantage concurrentiel certains sur les autres.
Maxime Hébert
Je transforme vos programmes d'innovation et d'entrepreneuriat en succès concret
J'adore ce genre de bidouille Wladimir 🙏🏻
Est-ce que tu as des hacks sur la partie email étudiant ?
Je pensais acheter un nom de domaine .school , faire une mini landing d'une fake school , générer un email.
Car .edu inaccessible 😅
Top, merci pour l'astuce ! Je viens de tester et c'est Veo 2 qui est proposé dans l'offre étudiante sur le site US (qui est bien gratuite pendant 12 mois). Par contre, il y a bien un accès à Veo 3 (en version limité) :)
Anais Sevrain
Experte en croissance digitale ⚙️ SEO + CRM + Automation
Ce type d’outil change vraiment la donne en automatisant des tâches complexes avec une simplicité incroyable.
Une nouvelle ère s'installe où l’IA devient un véritable assistant personnel ultra efficace
Matthieu Salib
CEO Mindsales - je te génère 8 à 33 rdv /mois - 📩 Envoi “Setter” en DM pour en s
4 ans, toujours top 1 au classement malgré tous les boss qui t'ont succédés derrière. Delcros restera le maître précurseur incontesté, avec toujours un temps d'avance sur le marché. 👏
Enfin un retour intéressent.
N8N c'est top pour comprendre un workflow, c'est très graphique, c'est très visuel mais si on veut faire des trucs un peu chiadé du code c'est bcp mieux.
Christophe Requin
Développeur web // nextjs :: node :: adonis :: astrojs :: directus and more...
Pendant que tout le monde se bat pour maîtriser des algos qu’ils ne comprennent qu’à moitié, d’autres canaux restent grand ouverts. Et bizarrement personne ne s’y intéresse.
Fatou Fofana . Générale 🏴☠️🫡
On SCALE ton activité grâce à une stratégie d’acquisition client MultiCanal et u
J’aime beaucoup cette réflexion. Le no-code a son utilité pour tester ou aller vite, mais c’est vrai que le code permet de passer à un autre niveau. Merci d’avoir partagé 🙌
Intéressant de voir ce shift du no-code vers le code. Ta réflexion montre bien que l’outil compte moins que la finalité : automatiser, optimiser, générer de la valeur.
4 ans, toujours top 1 au classement malgré tous les boss qui t'ont succédés derrière. Delcros restera le maître précurseur incontesté, avec toujours un temps d'avance sur le marché. 👏
Enfin un retour intéressent.
N8N c'est top pour comprendre un workflow, c'est très graphique, c'est très visuel mais si on veut faire des trucs un peu chiadé du code c'est bcp mieux.
Christophe Requin
Développeur web // nextjs :: node :: adonis :: astrojs :: directus and more...
Pendant que tout le monde se bat pour maîtriser des algos qu’ils ne comprennent qu’à moitié, d’autres canaux restent grand ouverts. Et bizarrement personne ne s’y intéresse.
Fatou Fofana . Générale 🏴☠️🫡
On SCALE ton activité grâce à une stratégie d’acquisition client MultiCanal et u
J’aime beaucoup cette réflexion. Le no-code a son utilité pour tester ou aller vite, mais c’est vrai que le code permet de passer à un autre niveau. Merci d’avoir partagé 🙌
Intéressant de voir ce shift du no-code vers le code. Ta réflexion montre bien que l’outil compte moins que la finalité : automatiser, optimiser, générer de la valeur.
Notre agence data & dashboards B2B intervient partout en France
100 % remote-first avec comité hebdo en visio — clients PME, ETI et scale-ups B2B à Paris, Lyon, Bordeaux, Marseille, Lille, Nantes, Toulouse, Strasbourg, et au-delà (Genève, Bruxelles).
Tarifs, choix de stack (Airbyte vs Fivetran, BigQuery vs Postgres vs Snowflake), rôle de dbt, délais, propriété du code et de l'infrastructure — les questions que se posent vraiment les CTO, CFO et Heads of Data avant de cadrer une mission à Marseille.
Combien coûte une agence data & dashboards B2B à Marseille ?
Tout est sur devis. Trois paliers de cadrage selon la maturité : audit data + roadmap (cartographie des sources, dette technique, points de friction), build dashboards (5 à 10 vues exécutables sur un warehouse existant), stack complète (Airbyte ou Fivetran + BigQuery ou Postgres + dbt + Metabase ou Looker Studio sur 6 à 10 semaines). Pas d'abonnement caché à un éditeur cloud, pas de licence Looker enterprise imposée. Tarif identique que vous soyez basé à Marseille (Euroméditerranée, The Camp) ou ailleurs en France.
Pourquoi BigQuery, Postgres ou Snowflake plutôt qu'un dashboard direct sur HubSpot ?
Parce qu'un dashboard branché directement sur HubSpot ou Stripe vous donne une vue de cet outil — pas de votre activité. Dès que vous croisez deux sources (HubSpot + Stripe pour le pipeline, GA4 + produit pour l'activation, Stripe + comptabilité pour l'ARR audité), vous avez besoin d'un endroit où réconcilier les identifiants, normaliser les fuseaux, gérer les fluctuations de change. C'est exactement le rôle d'un warehouse. BigQuery pour les volumes (GA4, télémétrie produit, logs), Postgres Supabase pour la souveraineté EU et les ETI sensibles (MarTech et Logistique portuaire sur Marseille sont concernés), Snowflake quand l'équipe data interne le maîtrise déjà.
Airbyte ou Fivetran : lequel choisir pour un projet à Marseille ?
Airbyte en open source self-hosted dès que la souveraineté ou le coût sont prioritaires : vous payez le compute, pas la ligne de données. Pertinent pour les volumes élevés (GA4, produit, logs) et les ETI MarTech et Logistique portuaire de Marseille qui veulent garder les données en EU. Fivetran quand l'équipe veut zéro maintenance d'infrastructure d'ingestion et accepte un coût plus élevé mais prévisible — typique des Series A/B qui n'ont pas encore de data engineer dédié. On recommande l'un ou l'autre après l'audit, jamais d'office.
Pourquoi dbt plutôt que des vues SQL maintenues à la main ?
dbt Core apporte trois choses qu'un SQL artisanal ne fournit pas. (1) Versioning Git : chaque transformation est revue en pull request, on sait qui a modifié la définition de l'ARR et quand. (2) Tests automatisés : tests d'unicité, de non-nullité, de cohérence (l'ARR Stripe doit égaler l'ARR HubSpot à +/-2 %, sinon le déploiement casse). (3) Documentation auto-générée : data dictionary tenu à jour, lineage visuel, on retrouve d'où vient chaque métrique. Pour des PME et ETI à Marseille, c'est la différence entre une stack qui tient 6 mois et une stack qui tient 3 ans.
Quel délai pour livrer un premier dashboard exécutable à Marseille ?
4 à 6 semaines pour un premier dashboard exécutable sur un périmètre cadré (pipeline + retention + ARR), avec warehouse provisionné, 3 à 5 sources branchées via Airbyte / Fivetran, 15 à 25 modèles dbt et 5 à 8 vues Metabase ou Looker Studio. Pour la stack complète (8 à 12 sources, reverse ETL Census / Hightouch, tests dbt étendus, gouvernance), comptez 6 à 10 semaines. Le délai ne dépend pas de votre localisation à Marseille ou ailleurs : les comités hebdomadaires de 45 minutes se tiennent en visio, les commits passent par votre repo, l'infra warehouse est provisionnée chez vous.
Code et infra restent-ils chez nous après la mission ?
Oui, sans exception. Le repo dbt vit dans votre organisation GitHub / GitLab dès J1. Le warehouse (BigQuery, Postgres Supabase, Snowflake) est provisionné sur votre cloud — projet GCP, instance Supabase, compte Snowflake — selon vos contraintes (souveraineté, conformité, équipe ops). Les credentials des sources Airbyte / Fivetran vivent dans votre vault (Supabase Vault, Doppler, Secret Manager). Aucune dépendance permanente à Uclic : votre équipe interne ou un autre prestataire peut reprendre la main, le code dbt est documenté, le runbook est à jour. Cas d'usage typique sur Marseille : ETI MarTech et Logistique portuaire qui internalise sa data team 12 mois plus tard sans rupture.
BigQuery vs Postgres, lequel choisir pour 50 GB de data ?
À 50 GB, les deux fonctionnent très bien et le choix dépend du contexte. Postgres (Supabase, Neon, RDS) est imbattable si vous avez déjà un Postgres applicatif, si vous avez besoin de transactionnel, ou si vous voulez minimiser le coût (un Supabase Pro à 25$/mois suffit jusqu'à 100 GB). BigQuery devient pertinent au-delà de 100 GB, ou si vous avez besoin de scaling élastique, ou si votre source principale est GA4 (export natif gratuit). Sandbox BigQuery gratuit jusqu'à 1 TB de query/mois — largement suffisant pour démarrer. Notre recommandation : Postgres si < 50 GB et besoin transactionnel, BigQuery si > 100 GB ou volume GA4 important. ClickHouse uniquement si analytique haute volumétrie (events produit > 1 milliard de lignes).
Dashboards client-side ou warehouse-side ?
Warehouse-side, sans hésitation. Un dashboard client-side (Looker Studio branché direct sur Google Sheets, Metabase sur HubSpot via connecteur natif) plante au-delà de 50 000 lignes, casse à chaque changement de schéma chez l'éditeur, et fait répéter chaque calcul de métrique dans chaque graphique — donc trois définitions différentes du même taux de conversion MQL → SQL. La couche warehouse + dbt résout cela : chaque métrique définie une seule fois dans Git, testée automatiquement, exposée à plusieurs BI tools simultanément. Le surcoût initial (1 à 2 semaines de modélisation) est amorti en 3 mois sur la maintenance évitée.
Looker Studio gratuit, pourquoi payer Metabase ?
Faux dilemme. Looker Studio est gratuit mais limité : performances dégradées au-delà de 100k lignes, partage granulaire compliqué, pas d'embedding propre, lock-in écosystème Google. Metabase Open Source est gratuit aussi en self-hosted (Docker, < sur devis sur DigitalOcean), avec performances bien meilleures, partage par groupes, embedding signé, et SQL natif pour les power users. Metabase Cloud Pro (85$/mois pour 5 users) ajoute SSO, alerting et permissions fines. Notre règle : Looker Studio si écosystème Google et users métier basiques, Metabase si self-hosted ou besoin de SQL et de partage granulaire, Cube.dev si embedding produit. Aucun éditeur n'est meilleur dans l'absolu.
Combien de sources synchronisées et à quelle fréquence ?
Une PME B2B moyenne en a 12 à 25. Sources prioritaires (incluses dans le build) : HubSpot/Pipedrive/Salesforce (CRM, sync horaire), Stripe (paiements, sync horaire), GA4 (analytics, sync daily via export BigQuery natif), Mixpanel ou PostHog (events produit, sync daily), Intercom ou Zendesk (support, sync horaire), Aircall (calls, sync daily). Sources secondaires (selon usage) : Notion, Airtable, Google Ads, Meta Ads, LinkedIn Ads, base produit interne. Fréquence : horaire pour CRM/paiement (deals critiques), daily pour analytics et events (volume), temps réel uniquement si embedding produit (Cube.dev streaming). Sync incrémentale CDC dès que disponible — pas de full refresh quotidien sur 10 millions de lignes.
Vous documentez le modèle data (data dictionary) ?
Oui, et c'est non négociable. Chaque table, chaque colonne, chaque métrique business est documentée — définition, source, formule, owner, dernière mise à jour. La doc est auto-générée via dbt docs à partir des fichiers YAML versionnés dans Git, et déployée en interne (souvent sur un sous-domaine type docs-data.votreboite.com). Quand un commercial demande « c'est quoi exactement le NRR dans ce dashboard ? », il a la réponse en 3 clics — pas besoin d'ouvrir un Slack. Cette documentation est la vraie barrière contre le bordel data qui s'installe en 12 mois si personne ne l'écrit. Versionnée dans votre Git, elle reste votre propriété complète.
Vous évitez Snowflake pour quelle raison ?
Pas par dogmatisme — par pertinence. Snowflake est techniquement excellent et incontournable au-delà de 5 TB ou en multi-cloud. Mais pour 90 % des PME et ETI B2B (volume < 500 GB), c'est surdimensionné et cher : facturation au crédit difficile à prévoir, coût minimum mensuel élevé, complexité de gouvernance qui nécessite un data engineer à temps plein. Postgres ou BigQuery suffisent à coût 5 à 10 fois inférieur, avec une expérience développeur identique côté dbt. On utilise Snowflake quand le client a déjà investi dedans, ou si volume + multi-cloud le justifient — pas par défaut.
Quel est le tarif d'une stack data Uclic ?
Trois entrées au projet, transparentes : Audit data sur devis (cartographie sources, audit dashboards existants, roadmap chiffrée). Build dashboards sur devis (audit + ELT 5-8 sources + warehouse + 3-5 dashboards Looker Studio/Metabase + formation, livré en 4-6 semaines). Stack complète sur devis (build + dbt versionné + 5-10 dashboards + reverse ETL Census/Hightouch + alerting Slack + handover, livré en 6-10 semaines). Pour une mise en production continue après le build, passez sur un forfait Stack Modulaire 2 000-sur devis (data ops sur 6 mois). Pas d'abonnement caché à un éditeur cloud — vous restez propriétaire de la stack, des modèles dbt et des dashboards.
Combien de temps avant d'avoir des dashboards en main ?
Plan de marche standard : 1 semaine d'audit et cadrage stack, 1 à 2 semaines d'ELT et provisioning warehouse, 2 semaines de modélisation dbt, 2 semaines de dashboards. Pour le forfait Build dashboards (sur devis) sans dbt, comptez 4 à 6 semaines du brief au handover. Pour la Stack complète (sur devis) avec dbt et reverse ETL, comptez 6 à 10 semaines selon le nombre de sources. Premier dashboard exécutable utilisable en interne à S3 en général. Pas de méthode magique : la modélisation dbt prend du temps mais c'est ce qui distingue une stack qui scale d'un dashboard jetable refait dans 6 mois.
Ressources data
Articles utiles pour piloter votre stack data
Analyses sur la stack data B2B, le choix Airbyte vs Fivetran, dbt en production, Metabase vs Looker Studio. Applicables aux PME, ETI et scale-ups SaaS B2B partout en France.