4.49 sur 5
4.49
833 Commentaires sur Udemy

Web Scraping et APIs Scraping avec Python (Cas réels inclus)

Apprendre le Scraping de données à partir de d'APIs et Sites Web réels (Utilisation de Python | pour la Data Science)
Extraire des données depuis des APIs et des sites Web avec le langage Python
API : S'authentifier sur une API et scraper de la data via cette API
Web : Scraper les sites web en ciblant les balises HTML ou les sélecteurs CSS

Si vous souhaitez vous initier au Scraping en récupérant des données via des APIs ou directement depuis le Web avec le langage Python, ce cours est fait pour vous !

Ce cours est constitué des points théoriques nécessaires pour commencer à scraper des APIs ou des sites web. Il est préférable pour suivre ce cours d’avoir des notions basiques en Python (variables, listes, dictionnaires, boucles, conditions, utilisation des librairies). Si Python ne vous est pas familier, je vous recommande de suivre une formation sur Python au préalable (à la fin de cette formation est fourni un lien pour suivre ma formation Udemy sur Python appliqué à la Data Science où vous trouvez toutes les bases requises si besoin).

Ce cours est également rempli d’exercices, de défis, de projets et d’opportunités pour que vous puissiez pratiquer directement ce que vous apprenez. Vous allez pratiquer le API Scraping sur 3 APIs différents (évolution progressive de la difficulté), puis vous allez pratiquer le Web Scraping aussi sur des cas réels (un site météo pour scraper les prévisions sur la semaine et un site de critique de films pour scraper plus de 2500 films avec leurs titres/années de sortie/notes)

Ce cours en quelques chiffres :

  • 4 heures de vidéos
  • 3 chapitres théoriques avec de nombreux training
  • 2 challenge pour mettre en pratique le Web Scraping
  • 1 cas pratique sur un API Scraping

 

Pourquoi apprendre le Scraping?

Le but principal du scraping c’est de récupérer de la data pour ensuite l’utiliser et la manipuler. Malgré l’essor du big data, certaines data ne sont pas téléchargeables, il faut donc passer le scraping (API ou web).L’idée est d’automatiser les tâches (ou requêtes) afin d’obtenir des milliers de data (exemple emails, adresses postales, résultats sportifs, météo, etc…)

Pourquoi ce cours est différent ?

Ce ne sera pas un cours où vous allez regarder mon code pendant des heures. C’est un parcours où l’on pratique, on met les mains dans le code et on manipule soi même pendant des heures sur des problématiques de scraping. Mon but c’est surtout de vous donner l’envie et le goût de scraper le web 🙂

Une fois ce cours terminé, vous pourrez scraper n’importe quel API (en lisant la documentation), et surtout vous pourrez scraper tout site internet qui vous intéresse.

Alors, faisons ça ! Inscrivez-vous aujourd’hui et commencez à apprendre le web & APIs Scraping !

Introduction

1
Installation Jupyter Notebook
2
Utilisation Jupyter Notebook

APIs Scraping

1
Introduction aux APIs et à la requête GET
2
Les codes Status
3
Paramètres de requête
4
Format JSON
5
Obtenir un JSON depuis une requête
6
Type de contenu
7
Défi: Trouver le nombre de personnes dans l'espace

Authentification à une API

1
Authentification à l'API de Github
2
Points d'accès ou endpoints
3
Pagination
4
Point d'accès User-Level
5
Requête POST
6
Requête PATCH/PUT
7
Requête DELETE

Cas pratique: API Reddit

1
Authentification à l'API de Reddit
2
Extraire l'article le plus populaire
3
Extraire tous les commentaires de cet article
4
Extraire le commentaire le plus populaire

Web Scraping

1
Introduction au web scraping
2
Récupérer des éléments d'une page
3
Utiliser Find All
4
Eléments correspondant aux IDs
5
Les classes
6
Sélecteurs CSS
7
Association de sélecteurs en CSS

Challenge 1: Site météo

1
Exploration de la structure de la page web
2
Extraire toutes les informations d'un élément
3
Extraire toutes les informations de la page
4
Affichage du résultat avec Pandas

Challenge 2: Critique de films

1
Introduction au site web
2
Structure de l'URL
3
Structure HTML de la page
4
Extraire la data pour un seul film
5
Script pour scraper une seule page
6
Affichage du DataFrame avec Pandas
7
Script pour toutes les pages
8
Contrôler le taux des requêtes envoyées
9
Script final
10
Script final (code)
11
Affichage final des données

SECTION BONUS : MERCI

1
Session Bonus
4.5
4.5 sur 5
Notes833

Détails des Notes

Étoiles 5
576
Étoiles 4
179
Étoiles 3
51
Étoiles 2
19
Étoiles 1
8
fbf784d5e021e0411199a76169047b0e
Garantie de remboursement de 30 jours

Inclut

4 heures de vidéo à la demande
Durée totale du cours 
Accès sur le mobile et la télévision
Certificat d'achèvement
Je déclare avoir pris connaissance des conditions générales d'utilisation de la plateforme Academia Raqmya (CGU) notamment en ce qui concerne la protection des données à caractère personnelles et la transférabilité des licences.