C’est quoi le Word Embedding ? (Word2Vec en français)

  Переглядів 11,180

Machine Linguist

Machine Linguist

День тому

Est-ce que vous savez que Google comprend ce que vous lui écrivez ?
En fait, il comprend le sens des mots.
Et il le comprend tellement qu'il peut même faire des calculs avec.
C'est grâce au Word Embedding, et plus précisément à Word2Vec.
Il s’agit d’une méthode d'intelligence artificielle appliquée au langage.
Vous allez découvrir comment ça marche dans cette vidéo !
#IntelligenceArtificielle #Vulgarisation #Python #MachineLearning #Français #Tutoriel #Word2Vec

КОМЕНТАРІ: 60
@MachineLinguist
@MachineLinguist 3 роки тому
Nouvelle vidéo. J'ai essayé de ralentir le débit de parole. Est-ce que ce type de contenu, plus technique, vous plait ? N'hésitez pas à commenter, liker et partager autour de vous. Je publie le code dès que je l'ai nettoyé. Bon visionnage !
@zine-eddineykh915
@zine-eddineykh915 3 роки тому
C est une dinguerie ta chaine je surkiff merci
@RaphaelGoubet
@RaphaelGoubet 2 роки тому
Vraiment clair et intéressant. Le code a-t-il été publié?
@jeanpeuplu3862
@jeanpeuplu3862 2 роки тому
C'est parfait ! (Pour le débit, je regarde tout en vitesse x2 donc... ^^)
@claudemayer118
@claudemayer118 22 дні тому
Remarquable, clair, en Français, et surtout le niveau technique que j'attendais
@MrRubix94
@MrRubix94 Рік тому
Travail absolument remarquable et qualitatif. J'apprécie particulièrement l'utilisation de code en direct et surtout de proposer de suivre historiquement l'évolution du text mining.
@taitai645
@taitai645 2 роки тому
Une des meilleure vidéo (la?) sur le sujet : bien expliqué, belle mise en forme, en français, avec du code pratique pour comprendre. Merci !
@asoasogm
@asoasogm 7 місяців тому
Bravo pour la pertinence, la complétude et la clarté!
@jsalvat9591
@jsalvat9591 2 місяці тому
C'est super clair ! Merci beaucoup et bravo !!!
@l42project47
@l42project47 3 роки тому
Très bon format, je trouve toujours intéressant de refaire la genèse, l'histoire de quelque chose, ça permet de mieux aborder, expliquer un problème, tout en améliorant sa culture générale
@MLA263
@MLA263 Рік тому
Franchement clair, c'est super ! Très agréable de retrouver du contenu de qualité en français
@alexandrerangom3510
@alexandrerangom3510 3 роки тому
Vidéo super intéressante, j'attends avec impatience la prochaine.
@MachineLinguist
@MachineLinguist 3 роки тому
Merci 😊 elle est en cours de préparation !
@mourad-mh
@mourad-mh Місяць тому
Excellente explication Merci
@Lilina3456
@Lilina3456 Рік тому
I looove the way you explained embedding from its early ages and by showing code examples, thanks for the video it was really beneficial.
@Guikingone
@Guikingone 3 роки тому
Je dois bien l'avouer, c'est très bien expliqué, précis et sans détours, ça mérite un pouce et un abonnement.
@MachineLinguist
@MachineLinguist 3 роки тому
Merci 🙏
@GuiguiGamer03
@GuiguiGamer03 Рік тому
Vidéo de grande qualité, tout est très clair. Merci
@kazoooou
@kazoooou 2 роки тому
J'adore ta chaine ! J'ai regardé plusieurs de tes vidéos et à chaque fois le contenu est super bien réalisé : c'est clair, efficace et ton enthousiasme est communicatif ! Merci beaucoup :)
@mouhamadoumoustaphaba4502
@mouhamadoumoustaphaba4502 Рік тому
Bonjour, Les explications sont claires et nettes. Merci encore!!!!
@laurasasso8798
@laurasasso8798 Рік тому
De loin la meilleure vidéo sur le sujet ! Merci beaucoup ! Je m'abonne
@arnaudbressot4426
@arnaudbressot4426 3 роки тому
Bonjour ! Je trouve que c'est mieux comme ça ! Encore une fois vidéo très intéressante ! PS : Bravo pour ton article !
@meriemwafaeyousfi7164
@meriemwafaeyousfi7164 3 роки тому
c le meilleur tuto ever !!! j'ADORE la facon dont vous explique les choses !!! un grand MERCIIIIIIIII
@MachineLinguist
@MachineLinguist 3 роки тому
Merci !
@dido2079
@dido2079 2 роки тому
Excellent vulgarisation ! BRAVO
@abderrahmanemabroukmerabet9274
@abderrahmanemabroukmerabet9274 3 роки тому
C'est magnifique ce que tu fais, continue bien et bon courage
@kaloskagatos
@kaloskagatos 2 роки тому
Merci pour la vidéo, j'ai testé, ça aide bien pour tricher, heu jouer à cemantix ! Allez voir ce jeu, c'est exactement dans le sujet. Reste à trouver le même dictionnaire...
@omarhabibi4872
@omarhabibi4872 3 роки тому
Merci infiniment pour cette vidéo, excellent travail , keep it up
@nicolasdd
@nicolasdd 3 роки тому
Video très intéressante, bravo !! Continuez à en faire vous avez gagnez un abonné ;)
@ilducedimas
@ilducedimas Рік тому
C'est excellent. Excellent.
@Mettisn221
@Mettisn221 10 днів тому
Waouww ! Top content
@karimazzaz1401
@karimazzaz1401 3 роки тому
Franchement au top !!
@melyssa4227
@melyssa4227 2 роки тому
J'adore..merci!!
@rodinmbembapika
@rodinmbembapika Рік тому
Bonjour, pourquoi vous ne publiez plus? Vos vidéos sont très intéressantes.
@rymzwawi8962
@rymzwawi8962 2 роки тому
Parfait merci bien pour l'effort
@dranrebnaej4529
@dranrebnaej4529 3 роки тому
Une super vidéo encore une fois
@MachineLinguist
@MachineLinguist 3 роки тому
Merci !
@michel_p5021
@michel_p5021 2 роки тому
Super clair et en français, merci ! Une idée, ça serait de faire une vidéo avec un modèle français comme FlauBERT et ainsi aborder BERT ??
@MachineLinguist
@MachineLinguist 2 роки тому
En effet, je dois encore faire des vidéos qui font le lien entre le word embedding et les modèles plus state of the art.
@michel_p5021
@michel_p5021 2 роки тому
@@MachineLinguist Oups pardon c'est plutôt CamemBERT que FlauBERT !
@davidl3383
@davidl3383 Рік тому
Sgenial. Merci
@clementrouvier4416
@clementrouvier4416 Рік тому
Super vidéo! J'espère qu'il y en aura d'autre... Petite question, comment faire pour le faire avec des mots français? Comment je peux trouver un dictionnaire similaire à celui utilisé svp?
@fatimaz.youcef1175
@fatimaz.youcef1175 2 роки тому
c'est ou la vidéo sur l'analyse de sentiment stp ?
@Gravenilvectuto
@Gravenilvectuto 3 роки тому
+1 abo
@MachineLinguist
@MachineLinguist 3 роки тому
Quel honneur 👍
@mamadoucamara8989
@mamadoucamara8989 2 роки тому
Bonjour très intéressant, pouvez vous faire une vidéo sur Doc2Vec?
@pierrearch7747
@pierrearch7747 Рік тому
Super vidéo J’ai adoré J’ai appris pleins de choses Questions 1) le word embedding ne pourrait-il pas être utilisé en cryptographie, par exemple pour décrypter les messages du zodiac ( même s’ils ont été décryptés) Question 2) qui est plutôt une proposition si je veux utiliser ce type de modèle en python par où dois-je commencer ?
@julienbousquet2214
@julienbousquet2214 3 роки тому
Bon boulot. Et Homo Deus en fond :-) Comme à la maison!
@davidbourasseau4284
@davidbourasseau4284 3 роки тому
Superbe vidéo, rien à redire.
@MachineLinguist
@MachineLinguist 3 роки тому
Merci 🙏
@redith728
@redith728 5 місяців тому
on peut avoir le fichier ?
@dolphinswimming4823
@dolphinswimming4823 2 роки тому
"...et nous avons une solution pour cela" Et là Paf c'est la panne électrique 😅
@alh7839
@alh7839 2 роки тому
le vidéo est top mais ce n'est pas l algo de word2vec qui est présenté, c'est juste une manière de faire du word embedding (word to vector et non word2vec) avec TF IDF et la théorie de Zellig Harris. Word2vec est l'utilisation d'un réseau de neurone, ou en utilisant la couche caché on peut avoir les embeddings des mots
@alh7839
@alh7839 2 роки тому
et petite question lorsque les mots sont vectorisés grâce à leurs mots contextes en utilisant tf idf. exemple pour le mot "le" [0, 0.93 , 0.37, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0], on a 0.93 pr la dimension "chat", mais "chat" n'est pas unique, ce sont plusieurs mots contextes, il y a un moyenne de faite sur les tf idf de chaque mot contexte "chat" ?
@ericdva1408
@ericdva1408 Рік тому
Bonjour super vidéo ! Toutefois j'ai du mal à comprendre le tf ID. Dans l'exemple croquettes n'a pas le même poids dans les deux phrases. Alors qu'il y a le même nombre de mot. Est ce que le contexte modifie le poids des mots ? J'imagine que oui car le contexte importe dans le sens général d'une phrase. Si on a "A mange B" et "A ne mange pas B" on souhaite donner à manger un poids opposé. Est ce bien cela ? Sur la comparaison des phrases intuitivement je me dit que si les phrases n'ont pas le même nombre de mot, ca pourrait donner des phrases avec des sens éloignés alors qu'en réalité non. Sais tu si c'est un problème rencontré? Merci
@matteorbn
@matteorbn Рік тому
Dinguerie comment la vidéo elle est bonne
@rymzwawi8962
@rymzwawi8962 2 роки тому
votre site web est inaccessible
@MachineLinguist
@MachineLinguist 2 роки тому
Merci. C’est réparé 👍
C’est quoi le fléau de la dimension ? (et ça fait mal...)
14:47
Machine Linguist
Переглядів 7 тис.
Vectoring Words (Word Embeddings) - Computerphile
16:56
Computerphile
Переглядів 274 тис.
Піхотинці - про потребу у людях
00:57
Суспільне Новини
Переглядів 1 млн
Word Embeddings
14:28
macheads101
Переглядів 155 тис.
Crée du contenu en un seul clic avec ce système (ChatGPT & Notion)
1:08:37
Brice Trophardy
Переглядів 1,5 тис.
Word Embeddings - EXPLAINED!
10:06
CodeEmporium
Переглядів 11 тис.
The Biggest Misconception about Embeddings
4:43
ritvikmath
Переглядів 11 тис.
C’est quoi l’analyse de sentiment ? (avec Python et SpaCy)
13:00
Machine Linguist
Переглядів 7 тис.
Introduction to NLP | Word Embeddings & Word2Vec Model
23:10
Normalized Nerd
Переглядів 36 тис.
OpenAI Embeddings and Vector Databases Crash Course
18:41
Adrian Twarog
Переглядів 364 тис.
How Neuralink Works 🧠
0:28
Zack D. Films
Переглядів 26 млн
Купите ЭТОТ БЮДЖЕТНИК вместо флагманов от Samsung, Xiaomi и Apple!
13:03
Thebox - о технике и гаджетах
Переглядів 22 тис.
Радиоприемник из фольги, стаканчика и светодиода с батарейкой?
1:00