SLAM : un système de navigation pour les personnes aveugles et les robots

Image provenant de http://img.mit.edu/

Un robot PR2 conçu par la compagnie Willow Garage muni d'une caméra Microsoft Kinect.

Un nouveau système de navigation conçu par les chercheurs du laboratoire de «Computer Science and Artificial Intelligence» (CSAIL) du MIT à Cambridge aux États-Unis permet à des robots d’élaborer et de maintenir continuellement à jour des cartes de leur environnement. Cette invention pourrait permettre à des robots de naviguer dans des environnements changeants ou inconnus sans intervention humaine. Ces nouveaux systèmes pourraient aussi permettre à des personnes aveugles de trouver leur chemin sans aide dans des hôpitaux et des centres d’achat par exemple.

Lire la suite

Publicités

MIT : le «goût» des mathématiques

Vous ne le saviez probablement pas, mais la conception d’arômes qui donne la saveur aux aliments préparés et boissons, l’odeur aux produits de nettoyage, le parfum aux eaux de toilette et autres produits maison, représente une industrie de plusieurs milliards d’Euros. Les compagnies qui conçoivent ces arômes dépensent plusieurs millions d’Euros en R&D, dépenses incluant l’évaluation de ces arômes auprès des consommateurs.

Lire la suite

2 quadrirotors du MIT « dansent » pour Pilobolus

Qu’ont en commun le laboratoire de «Computer Science and Artificial Intelligence» (CSAIL) du MIT aux États-Unis et la compagnie de danse moderne Pilobolus, de Washington Depot au Connecticut, USA? Un spectacle. Le laboratoire CSAIL a participé à l’élaboration et la présentation d’un spectacle de danse avec la troupe Pilobolus. Deux quadrirotors (fabriqués par la compagnie allemande Ascending Technologies), des petits robots volants à 4 pales ont «dansé» avec un interprète de la compagnie de danse.

Un quadrirotor du club scientifique Dronolab de l'ÉTS de Montréal.

Le spectacle intitulé «Seraph» a été présenté au Joyce Theater de New York aux États-Unis, du 18 juillet au 6 août 2011.

Lire la suite

Comment prendre une tasse de café en compagnie d’un robot ?

Si on vous demande de prendre une tasse de café un matin, quelque soit votre position à la table (et votre état d’éveil), ce geste anodin, vous le ferez aisément.

Demander maintenant à un robot de prendre une tasse sur une table en considérant par exemple qu’il aurait ses mains (robotiques) sous la table représente une exercice très problématique. Il faudra qu’il soit doté d’intelligence artificielle et, malgré cela, il va hésiter, ses mains vont se déplacer dans bien des sens, sous la table pour éviter les obstacles présents, puis arrêter de nouveau pour tenir compte de la situation au dessus de la table,  faire encore des gestes qui sembleraient bizarroïdes à tout humain, avant de réussir à saisir la tasse… Ouf !

Considérons maintenant de prendre une tasse et se préparer un café le matin, dans un environnement appelé à se modifier (une table de cuisine…), ce n’est pas compliqué pour un humain… enfin presque…

Pourrait-on actuellement demander à un robot de nous préparer un café sachant qu’il a de tant de difficultés à prendre une simple tasse ? Et comment pourrions-nous interagir à une table par exemple avec ce dit robot si ces gestes ne peuvent pas être prévus ? Y-a t’il moyen qu’il interagisse de façon plus intuitive ? Plus humaine ?? Si ! Des chercheurs du Computer Science and Artificial Intelligence Laboratory (CSAIL) et du Laboratory for Information and Decision Systems (LIDS) du MIT en collaboration avec des chercheurs l’université Cornell, aux États-Unis, pensent avoir trouvé une solution…

Lire la suite