- Présentation -

2017 a été l'année de l'intelligence artificielle.
La data science sort enfin des grottes des scientifiques. Tout le monde est convaincu que cette discipline changera la donne.
Les outils et les plateformes foisonnent et les startups qui ont fait ce pari sont devenues des unicorns.
Cependant, construire des applications qui apportent une réelle valeur ajoutée reste un vrai challenge. Plusieurs projets prometteurs n'ont pas réussi à dépasser le stade du PoC.
En 2017, j'ai accompagné mon client dans son aventure avec une "licorne" californienne qui produit une plateforme de Big data analytics et AI.
Dans cette session, nous allons voir comment faire une data science agile pour l'ajout constant de valeur.
On s'intéressera à :
- l'exploration de la valeur métier
- la collaboration entre différents domaines d'expertise (data science, data integration, app development, UX...)
- la qualité du produit dans un domaine exploratoire

Une agilité à tous les étages !

- Pourquoi ça nous intéresse -

Il s'agit d'un retour d'expérience où je partagerai les pratiques mises en place, les succès mais aussi ce qui a moins bien fonctionné.

Souvent, la data science évoque des fantasmes.
On a tendance à imaginer qu'un data scientist doit être un génie des maths qui livre des modèles à des codeurs qui, eux, vont les intégrer.
Mais pour mettre en production ces modèles et apporter de la valeur aux utilisateurs, il est nécessaire de :
- collaborer efficacement entre différents domaines de compétence
- apprendre ensemble dans un domaine exploratoire
* favoriser l'apprentissage, la progression et l'autonomie de l'équipe
* raccourcir la boucle de feedback
* renforcer la propriété collective du code
- améliorer la qualité du produit au quotidien

Comments

Comments are closed.