Searching...
Français
EnglishEnglish
EspañolSpanish
简体中文Chinese
FrançaisFrench
DeutschGerman
日本語Japanese
PortuguêsPortuguese
ItalianoItalian
한국어Korean
РусскийRussian
NederlandsDutch
العربيةArabic
PolskiPolish
हिन्दीHindi
Tiếng ViệtVietnamese
SvenskaSwedish
ΕλληνικάGreek
TürkçeTurkish
ไทยThai
ČeštinaCzech
RomânăRomanian
MagyarHungarian
УкраїнськаUkrainian
Bahasa IndonesiaIndonesian
DanskDanish
SuomiFinnish
БългарскиBulgarian
עבריתHebrew
NorskNorwegian
HrvatskiCroatian
CatalàCatalan
SlovenčinaSlovak
LietuviųLithuanian
SlovenščinaSlovenian
СрпскиSerbian
EestiEstonian
LatviešuLatvian
فارسیPersian
മലയാളംMalayalam
தமிழ்Tamil
اردوUrdu
Numsense! Data Science for the Layman

Numsense! Data Science for the Layman

No Math Added
par Annalyn Ng 2017 147 pages
4.14
607 évaluations
Écouter
Try Full Access for 7 Days
Unlock listening & more!
Continue

Points clés

1. Science des données : des décisions éclairées au-delà de l’intuition

En tant qu’êtres humains, nos jugements sont limités par des expériences subjectives restreintes et des connaissances incomplètes.

Surmonter les limites humaines. La science des données offre une alternative puissante à la simple intuition humaine, souvent biaisée et limitée. En exploitant les données, il devient possible d’identifier des tendances cachées, de faire des prédictions et de calculer des probabilités, ce qui conduit à des décisions plus précises et mieux informées. Cela s’avère particulièrement crucial dans des domaines comme la médecine, où une erreur de diagnostic peut avoir des conséquences graves.

Exploiter la puissance des données. Les techniques de science des données permettent d’analyser d’immenses ensembles de données et d’en extraire des informations précieuses, invisibles à l’œil nu. Grâce à l’informatique moderne et à des algorithmes avancés, on peut :

  • Identifier des tendances cachées dans de vastes bases de données
  • Utiliser ces tendances pour faire des prédictions
  • Calculer la probabilité de chaque résultat possible
  • Obtenir des résultats précis rapidement

Une approche pratique. Cet ouvrage propose une introduction accessible à la science des données, privilégiant des explications intuitives et des exemples concrets. En comprenant les concepts fondamentaux et les algorithmes, le lecteur pourra commencer à tirer parti de la science des données pour améliorer ses décisions dans son propre domaine.

2. Préparation des données : la base d’une analyse fiable

Si la qualité des données est médiocre, même l’analyse la plus sophistiquée ne produira que des résultats décevants.

Des données de qualité, des résultats fiables. La qualité des données est essentielle en science des données. Peu importe la sophistication des algorithmes employés, si les données sont erronées ou incomplètes, les résultats seront peu fiables. La préparation des données constitue donc une étape cruciale, qui consiste à nettoyer, transformer et sélectionner les données pertinentes pour l’analyse.

Les étapes clés de la préparation des données :

  • Formatage des données : organiser les données sous forme tabulaire, avec des lignes représentant les observations et des colonnes les variables.
  • Types de variables : identifier et distinguer les variables binaires, catégorielles, entières et continues.
  • Sélection des variables : retenir les variables les plus pertinentes pour éviter le bruit et accélérer les calculs.
  • Ingénierie des caractéristiques : créer de nouvelles variables en combinant ou transformant les existantes pour extraire davantage d’informations utiles.
  • Gestion des données manquantes : traiter les valeurs absentes par approximation, calcul ou suppression, tout en restant vigilant face aux biais potentiels.

Garantir l’intégrité des données. Une préparation rigoureuse des données assure que l’analyse repose sur des bases solides, conduisant à des résultats plus précis et significatifs. C’est un investissement qui se traduit par des insights fiables et une meilleure prise de décision.

3. Choix des algorithmes : adapter les outils aux tâches

Le choix de l’algorithme dépend du type de tâche que l’on souhaite accomplir.

Sélectionner le bon outil. Choisir l’algorithme approprié est essentiel pour atteindre le résultat escompté en science des données. Chaque algorithme est conçu pour des tâches spécifiques, telles que la détection de motifs, la prédiction ou l’amélioration continue des performances à partir des retours. Les trois grandes catégories de tâches sont :

  • Apprentissage non supervisé : découvrir des motifs cachés dans les données sans connaissance préalable.
  • Apprentissage supervisé : faire des prédictions à partir de motifs existants dans des données étiquetées.
  • Apprentissage par renforcement : améliorer continuellement les prédictions grâce aux retours obtenus.

Comprendre les catégories d’algorithmes. Les algorithmes d’apprentissage non supervisé, comme le clustering ou les règles d’association, servent à explorer les données et à identifier des structures sous-jacentes. Les algorithmes supervisés, tels que la régression ou la classification, construisent des modèles prédictifs à partir de données étiquetées. Les algorithmes d’apprentissage par renforcement, comme les bandits manchots, optimisent les décisions au fil du temps par essais et erreurs.

Au-delà des bases. Outre la tâche principale qu’ils accomplissent, les algorithmes diffèrent aussi par leur capacité à analyser différents types de données et par la nature des résultats qu’ils produisent. Une réflexion attentive sur ces aspects est indispensable pour choisir l’algorithme le plus adapté à un problème donné.

4. Réglage des paramètres : optimiser la performance des modèles

La précision d’un modèle diminue lorsque ses paramètres ne sont pas correctement ajustés.

Ajuster pour plus de précision. Même avec l’algorithme adéquat, la précision d’un modèle peut varier considérablement selon le réglage de ses paramètres. Ces derniers contrôlent le comportement de l’algorithme, et trouver leurs valeurs optimales est crucial pour maximiser les performances.

Éviter le surapprentissage et le sous-apprentissage. Le surapprentissage survient lorsqu’un modèle est trop sensible aux données d’entraînement et performe mal sur de nouvelles données. Le sous-apprentissage se produit lorsque le modèle est trop insensible et ne capture pas les motifs sous-jacents. Le réglage des paramètres permet de trouver un équilibre entre ces deux extrêmes.

Régularisation et validation. La régularisation est une technique qui prévient le surapprentissage en pénalisant la complexité du modèle. La validation évalue la capacité du modèle à généraliser sur des données inédites. En combinant réglage des paramètres, régularisation et validation, on obtient des modèles à la fois précis et fiables.

5. Clustering : révéler des groupes cachés

En identifiant des préférences ou caractéristiques communes, il est possible de regrouper les clients, ce que les commerçants peuvent exploiter pour des publicités ciblées.

Regrouper des données similaires. Le clustering est une technique qui consiste à regrouper des points de données similaires selon leurs caractéristiques. Cela permet d’identifier des segments de clients, de comprendre des catégories de produits ou de découvrir des motifs cachés. L’algorithme k-means est populaire pour partitionner les données en k groupes distincts.

Déterminer le nombre optimal de clusters. L’un des défis majeurs du clustering est de choisir le nombre adéquat de groupes. Un graphique en coude (scree plot) aide à visualiser la diminution de la dispersion intra-cluster en fonction du nombre de clusters, facilitant ainsi ce choix.

Un processus itératif. Le clustering k-means fonctionne en assignant itérativement chaque point au centre de cluster le plus proche, puis en recalculant la position des centres. Ce processus se répète jusqu’à stabilisation des groupes. Simple et efficace, k-means est particulièrement adapté aux clusters sphériques et non chevauchants.

6. ACP : simplifier la complexité par la réduction de dimension

L’Analyse en Composantes Principales (ACP) identifie les variables sous-jacentes (appelées composantes principales) qui différencient le mieux vos données.

Réduire le nombre de variables. L’ACP est une technique de réduction de dimension qui permet d’exprimer les données à l’aide d’un nombre réduit de variables, les composantes principales. Chaque composante est une combinaison pondérée des variables originales, capturant l’essentiel de l’information.

Maximiser la dispersion des données. L’ACP identifie les dimensions selon lesquelles les données sont le plus dispersées, supposant que ces dimensions sont les plus pertinentes pour différencier les points. Les premières composantes principales facilitent l’analyse et la visualisation de jeux de données complexes.

Graphiques en coude et limites. Un graphique en coude permet de déterminer le nombre optimal de composantes à conserver. Bien que puissante, l’ACP suppose que les dimensions les plus informatives sont celles où la dispersion est maximale et que ces dimensions sont orthogonales. L’interprétation des composantes peut aussi s’avérer délicate.

7. Règles d’association : révéler les relations dans les données

Les règles d’association montrent la fréquence d’apparition des éléments seuls ou en relation les uns avec les autres.

Découvrir des habitudes d’achat. Les règles d’association servent à identifier des relations entre éléments dans un jeu de données, par exemple les produits souvent achetés ensemble. Ces informations permettent d’améliorer les ventes via la publicité ciblée, le placement des produits ou la création de lots.

Mesurer l’association. Trois mesures courantes évaluent l’association :

  • Support : fréquence d’apparition d’un élément.
  • Confiance : fréquence d’apparition de l’élément Y lorsque l’élément X est présent.
  • Lift : fréquence conjointe des éléments X et Y, corrigée de leur fréquence individuelle.

Principe apriori. Le principe apriori accélère la recherche des ensembles fréquents en éliminant une grande partie des combinaisons peu fréquentes, réduisant ainsi la complexité du calcul dans les grands jeux de données.

8. Analyse des réseaux sociaux : cartographier et comprendre les connexions

L’analyse des réseaux sociaux permet de cartographier et d’analyser les relations entre entités.

Étudier les relations. L’analyse des réseaux sociaux (SNA) sert à représenter et analyser les liens entre entités, qu’il s’agisse de personnes, d’organisations ou de pays. Elle aide à comprendre les dynamiques sociales, à identifier les individus influents et à découvrir des communautés.

Méthode Louvain. La méthode Louvain détecte des clusters dans un réseau en maximisant les interactions à l’intérieur des groupes et en minimisant celles entre groupes. Elle est optimale lorsque les clusters sont de taille similaire et bien distincts.

Algorithme PageRank. PageRank classe les nœuds d’un réseau selon leur nombre de liens, ainsi que la force et la source de ces liens. Cette méthode identifie les nœuds dominants, mais elle est biaisée envers les nœuds récents, qui ont eu moins de temps pour accumuler des liens.

9. Analyse de régression : prédire tendances et relations

L’analyse de régression trouve la droite de tendance qui passe au plus près du maximum de points de données.

Trouver la droite de tendance. L’analyse de régression permet de déterminer la droite qui s’ajuste le mieux aux données, en passant au plus près du plus grand nombre de points. Cette droite sert à prédire la valeur d’une variable dépendante à partir d’une ou plusieurs variables indépendantes.

Coefficients de régression. La droite de tendance résulte d’une combinaison pondérée des prédicteurs. Ces poids, appelés coefficients de régression, indiquent la force d’un prédicteur en présence des autres.

Limites et hypothèses. La régression est optimale lorsque les prédicteurs sont peu corrélés, qu’il n’y a pas de valeurs aberrantes et que la tendance attendue est linéaire. Il est important de garder ces limites à l’esprit lors de l’interprétation des résultats.

10. k-NN et détection d’anomalies : repérer l’inhabituel

La technique des k plus proches voisins (k-NN) classe un point de données en se référant aux classifications des points les plus proches.

Classer par proximité. Le k-NN classe un point en fonction des classes des k points voisins les plus proches. La valeur de k est déterminée par validation croisée.

Réglage des paramètres et limites. k-NN est efficace lorsque le nombre de prédicteurs est faible et que les classes sont de taille comparable. Des classifications erronées peuvent toutefois être signalées comme anomalies potentielles.

Détection d’anomalies. k-NN sert aussi à identifier des anomalies, comme des transactions frauduleuses ou des comportements inhabituels. En repérant les points s’écartant significativement de la norme, on obtient des insights précieux et on détecte d’éventuels problèmes.

11. SVM : frontières optimales pour la classification

La machine à vecteurs de support (SVM) classe les points en deux groupes en traçant une frontière médiane entre les points périphériques (vecteurs de support) des deux groupes.

Tracer des frontières. La SVM sépare les données en deux classes en dessinant une frontière qui maximise la marge entre les points les plus proches de chaque groupe, appelés vecteurs de support.

Robustesse et efficacité. La SVM résiste aux valeurs aberrantes grâce à une zone tampon qui tolère quelques points mal classés. Elle utilise également le « kernel trick » pour tracer des frontières courbes de manière efficace.

Cas d’usage privilégiés. La SVM est particulièrement adaptée lorsque l’on doit classer un grand nombre de points en deux groupes distincts. C’est une technique puissante pour de nombreux problèmes de classification.

12. Tests A/B et bandits manchots : optimiser les choix

Le problème des bandits manchots consiste à savoir comment allouer au mieux les ressources : exploiter les gains connus ou chercher de meilleures alternatives.

Allocation des ressources. Ce problème pose la question de l’équilibre entre exploitation des options performantes et exploration de nouvelles possibilités.

Tests A/B vs stratégie epsilon-décroissante. Une solution consiste à explorer d’abord les options disponibles, puis à allouer toutes les ressources restantes à la meilleure option, ce qu’on appelle le test A/B. Une autre consiste à augmenter progressivement les ressources allouées à la meilleure option, stratégie dite epsilon-décroissante.

Compromis et limites. Bien que la stratégie epsilon-décroissante offre généralement de meilleurs rendements que le test A/B, il est difficile de déterminer le rythme optimal d’ajustement des ressources. Une réflexion approfondie sur ces compromis est essentielle pour prendre des décisions éclairées.

Dernière mise à jour:

Want to read the full book?

Avis

4.14 sur 5
Moyenne de 607 évaluations de Goodreads et Amazon.

Numsense ! La science des données pour tous est salué pour son accessibilité et sa clarté dans l’explication de concepts complexes de la science des données, sans recours à des mathématiques lourdes. Les lecteurs apprécient son aperçu concis, ses illustrations utiles et ses exemples concrets. Ce livre s’adresse aussi bien aux débutants qu’à ceux qui souhaitent se remettre à niveau. Si certains le jugent un peu simpliste, la majorité reconnaît sa capacité à démystifier les algorithmes de la science des données. Quelques critiques soulignent des limites liées à l’absence de profondeur mathématique et à des illustrations dépendantes des couleurs, mais dans l’ensemble, il est considéré comme une excellente introduction à ce domaine.

Your rating:
4.57
54 évaluations

À propos de l'auteur

Annalyn Ng est l’auteure de « Numsense ! La science des données pour tous ». Son ouvrage a été salué pour sa capacité à rendre les concepts de la science des données accessibles à un large public. Le style d’écriture de Ng est reconnu pour sa clarté, sa concision et sa facilité de compréhension, même pour ceux qui ne possèdent pas de solides bases en mathématiques. Sa démarche repose sur l’explication des algorithmes et des principes de la science des données à l’aide d’un langage simple et d’aides visuelles. Le succès de ce livre, qui simplifie des sujets complexes, témoigne du talent de Ng pour décomposer des notions techniques et les présenter de manière à toucher les lecteurs novices dans le domaine de la science des données.

Listen
Now playing
Numsense! Data Science for the Layman
0:00
-0:00
Now playing
Numsense! Data Science for the Layman
0:00
-0:00
1x
Voice
Speed
Dan
Andrew
Michelle
Lauren
1.0×
+
200 words per minute
Queue
Home
Swipe
Library
Get App
Create a free account to unlock:
Recommendations: Personalized for you
Requests: Request new book summaries
Bookmarks: Save your favorite books
History: Revisit books later
Ratings: Rate books & see your ratings
250,000+ readers
Try Full Access for 7 Days
Listen, bookmark, and more
Compare Features Free Pro
📖 Read Summaries
Read unlimited summaries. Free users get 3 per month
🎧 Listen to Summaries
Listen to unlimited summaries in 40 languages
❤️ Unlimited Bookmarks
Free users are limited to 4
📜 Unlimited History
Free users are limited to 4
📥 Unlimited Downloads
Free users are limited to 1
Risk-Free Timeline
Today: Get Instant Access
Listen to full summaries of 73,530 books. That's 12,000+ hours of audio!
Day 4: Trial Reminder
We'll send you a notification that your trial is ending soon.
Day 7: Your subscription begins
You'll be charged on Aug 29,
cancel anytime before.
Consume 2.8x More Books
2.8x more books Listening Reading
Our users love us
250,000+ readers
"...I can 10x the number of books I can read..."
"...exceptionally accurate, engaging, and beautifully presented..."
"...better than any amazon review when I'm making a book-buying decision..."
Save 62%
Yearly
$119.88 $44.99/year
$3.75/mo
Monthly
$9.99/mo
Start a 7-Day Free Trial
7 days free, then $44.99/year. Cancel anytime.
Scanner
Find a barcode to scan

38% OFF
DISCOUNT FOR YOU
$79.99
$49.99/year
only $4.16 per month
Continue
2 taps to start, super easy to cancel
Settings
General
Widget
Loading...