Wednesday, November 18, 2015

Paris Machine Learning Meetup #3 Season 3: Zero Resource Speech Challenge, Epidemium, Smartsubs, TensorFlow, ML Use

 



Here is the program, more information will be added as we get closer to tonight's meetup at Criteo 5a big thank you to them for hosting and for the networking event afterwards):


+ Nicolas Le Roux, Criteo presentation

+ Emmanuel Dupoux, ENS Ulm, A report on the Zero Resource Speech Challenge (INTERSPEECH 2015)
Speech recognition technologies rely on supervised learning techniques which typically require thousands of hours of speech annotated by experts in order to train acoustic and language models. Here, I'll present the results of the Zero Resource Speech Challenge (INTERSPEECH 2015) which explores a radically alternative approach: infant-inspired unsupervised discovery of linguistic structure based on raw speech.

Epidemium est un programme de recherche scientifique, participatif et ouvert à tous, dédié à la compréhension du cancer grâce aux Open Big Data. Initié par le laboratoire Roche et le laboratoire communautaire La Paillasse, ce programme se concrétisera par un data challenge : le Challenge4Cancer.  

+ Rebiha Rahba, "Identification des ""Trending Topics"" ou comment utiliser le Machine Learning pour identifier les sujets qui font l'actualité ?
Présentation d'une étude Machine Learning, de la problématique jusque la création d'une solution prête à l'emploi. La solution à entièrement été construite sur Azure Machine Learning. La présentation montrera comment ce produit permet de réaliser ce type d'étude.

+ Imad Soltani, "Tensorflow, some trials and the open source deep learning framework ecosystem"

+ Félix Revert, "Du Machine Learning dans l'éducation des langues étrangères ? C'est tout le fond de SmartSubs : les smart subtitles.

SmartSubs évalue le niveau d'anglais d'une personne puis identifie tout le vocabulaire que cette personne ne connaît pas. Ce vocabulaire est présent dans du texte qui peut être:
  • des sous-titres de films ou série
  • des articles de journaux
  • des ebooks
Comment détectons nous le vocabulaire difficile pour chaque personne ? Grâce à du machine learning, nous testons sur un petit échantillon de personnes et nous étendons nos résultats sur tous nos utilisateurs.
1er projet : les smart subtitles http://youtu.be/kmEG7wdL9RY

2nd projet : la lecture smart sur internet


Join the CompressiveSensing subreddit or the Google+ Community or the Facebook page and post there !
Liked this entry ? subscribe to Nuit Blanche's feed, there's more where that came from. You can also subscribe to Nuit Blanche by Email, explore the Big Picture in Compressive Sensing or the Matrix Factorization Jungle and join the conversations on compressive sensing, advanced matrix factorization and calibration issues on Linkedin.

No comments:

Printfriendly