Reading Group - GDR TAL

Posted on Ven, 01 jan 2021 in misc

October 30, 2020

A multilingual view of unsupervised MT

Garcia, Foret, Sellam and Parikh

Devise a model for multilingual unsupevised MT. The main idea is as follows: consider \(L\) languages, and model the joint distribution \(P(x,y,z...)\) (let us assume \(L=3\) for the sake of the argument …


Continue reading

Very Very Large Transformers

Posted on Ven 09 oct 2020 in Machine Translation, Language Models

Transformers Models: Basics

The transformer architecture of (Vaswani et al, 2017) has been transformative in the sense that is has quickly replaced more classical RNN architectures as the basic block for building large-scale structured prediction model. A TF learns to transform a structured linguistic object (typically a string) into a …


Continue reading

Notes on Optimal Transport for Multilingual Embeddings

Posted on Jeu 01 oct 2020 in Multilinguality, Embeddings

This post is a short summary of what needs to be known, and slightly more, to fully get the grasp of a series of not so recent papers (2017-2018) which have tried to exploit the mathematical theory of Optimal Transport to compute multilingual word embeddings.


Continue reading

La TA "à parité" avec l'humain ? Ca se discute.

Posted on Mer 30 sep 2020 in Machine Translation

'Plusieurs articles récents annoncent que la traduction automatique serait parvenue à "parité avec l'humain". Cette affirmation s'appuie sur un protocole expérimental discutable, et fait l'objet de sérieuses critiques au sein de la communauté. Ce post présente ces résultats, et explique pourquoi de telles affirmations doivent effectivement prises avec des pincettes.'


Continue reading

Peer reviewing (in Comp Ling) - Why it is broken and ways to fix it

Posted on Mer, 30 sep 2020 in reviewing • Tagged with reviewing, ACL

Reviewing takes a lot time

I review a lot. If review for conferences, workshops, journals. I am also AE for TACL, ACM Computing Surveys, Computer Speech and Language and Traitement Automatique des Langues (mostly in French). Which means that I review too much. Hopefully my employer (CNRS) does not seem …


Continue reading

Note sur le calcul de la perplexité

Posted on Mer 01 jan 2020 in NLP, Language Models, TAL, Modèles de Langue

Une perplexité qui laisse perplexe

Les modèles de langue continuent de faire l'objet de nombreuses recherches, en particulier parce que les données d'apprentissage sont abondantes, et permettent de pré-entrainer des représentations ou des réseaux qu'il est possible ensuite de détourner à d'autres fin, presque sans supervision. Le travail récent de …


Continue reading