FabLab et Innovation 2015-2016

De fablab
Aller à : navigation, rechercher

Projet 1 : Vibrato

Cadre du projet :

  • Encadrant : Rémi Pincent
  • Nombre d'étudiants : 3 à 5
  • Lieu : le projet aura lieu dans les ateliers d'Amiqual4Home ainsi qu'au fabMSTIC


Contexte

Allez jeter un coup d’œil ici

Dans un premier temps vous pourrez réviser vos gammes en utilisant "mogees". Certains d'entre vous utiliseront "mogees" pour rendre interactifs des objets de votre quotidien soigneusement identifiés. Vous ne contrôlerez pas un synthétiseur avec les notes générées mais des éléments de votre habitat. Vous pourrez travailler dans l'appartement d'expérimentation afin de définir et tester des scénarios définissant les actions associées aux vibrations captées par "mogees".

Les autres étudiants se pencheront sur le fonctionnement de Mogees. Grâce à un ou plusieurs capteurs PVDF vous réaliserez un microphone de contact DIY. Associé au logiciel que vous allez développer, vous serez capable de remplacer (avantageusement?) "mogees" pour les scénarios identifiés précédemment.


Sujet

Dans le cadre ce projet, nous vous proposons de :

  • prendre en main et comprendre précisément le fonctionnement de "mogees"
  • découvrir les capteurs de vibrations et plus spécifiquement les PVDF
  • réaliser l'interfaçage entre capteurs PVDF et microcontrôleur
  • réaliser le logiciel se chargeant de la classification des différentes zones d'interaction pour un objet donné


Travail réalisé

Page wiki reliant à la documentation du travail réalisé sur ce projet : http://fablab.ensimag.fr/index.php/Vibrato

Projet 2 : Media space

Cadre du projet :

  • Encadrant : Stan Borkowski
  • Nombre d'étudiants : 3 à 5
  • Lieu : le projet aura lieu dans les ateliers d'Amiqual4Home ainsi qu'au fabMSTIC


Contexte

Media space est un espace virtuel de travail permettant aux personnes distantes de collaborer.

Dans le but de rapprocher des ateliers de prototypage du FabMSTIC avec ceux d’Amiqual4Home, nous vous proposons de créer un tel espace Virtuel ayant à minima les fonctions suivantes :

  • la detection de presence pour controller la mise en veille du système
  • la detection de proximité pour passer d’un mode d’affichage bas debit (images fixes) à un mode de communication audio-video


Chaque bout du Media Space sera équipé au moins de :

  • un ordinateur avec son écran
  • une webcam avec un microphone intégré
  • un microcontrôleur avec des capteurs de movement et de distance


Sujet

Dans le cadre ce projet, nous vous proposons de :

  • prendre en main WebRTC pour la communication AV entre 2 sites distantes
  • découvrir les capteurs PIR et ultrason pour la detection de presence et de proximité
  • réaliser l'interfaçage entre les capteurs, un microcontrôleur et un ordinateur
  • concevoir les evolutions possibles ou nécessaires pour éteindre un tel Media space à plus de 2 sites.

Projet 3 : Goodair

Cadre du projet :

  • Encadrant : Nicolas Bonnefond
  • Nombre d'étudiants : 3 à 5
  • Lieu : le projet aura lieu dans les ateliers d'Amiqual4Home ainsi qu'au fabMSTIC


Contexte

La qualité d'air intérieur est un enjeu important pour préserver la santé des personnes.

Hors, peu de gens savent quel est le taux de particules fines autour de nous.

Nous vous proposons de réaliser un système de mesure de particules en suspension dans l’air des ateliers FabMSTIC et d’Amiqual4Home.

Le système pour être également décliné pour un usage à l’extérieur et pour alimenter un site communautaire de collecte de données environnementales.


Sujet

Dans le cadre ce projet, nous vous proposons de :

  • prendre en main et comprendre précisément le fonctionnement d’un capteur laser de particules
  • réaliser l'interfaçage entre le capteur, un microcontrôleur, et une application web


Projet 4 : Actimetrie

Cadre du projet :

  • Encadrant : Jérôme Maisonnasse
  • Nombre d'étudiants : 3 à 5
  • Lieu : le projet aura lieu dans les ateliers d'Amiqual4Home, Domus ainsi qu'au fabMSTIC

Contexte

Dans le contexte d’une salle de réunion ou de cours, différents membres sont amenés à interagir créant de façon dynamique des groupes et des sous groupes au fil des conversations et des tâches.

Dans le cadre d’une salle de cours augmenté, nous pouvons imaginer que l’activité de parole de chaque membre soit analysée en temps réel pour rendre visible la dynamique du groupe (qui parle le plus, avec qui, etc.). Ainsi, nous souhaitons construire de façon dynamique une matrice de Moreno. De ces données nous pouvons faire des hypothèses sur la présence de "leaders" et sur la présence de « suiveurs » et des relations entre les membres du groupe.

Nous vous proposons de réaliser un outil qui à partir de microphones soit capable de rendre visible la dynamique du groupe pour répartir plus équitablement la parole par exemple.

http://homepages.inf.ed.ac.uk/rbf/CAVIAR/PAPERS/brdubimob.pdf

Sujet

Dans le cadre ce projet, nous vous proposons de :

  • d'analyser à partir de microphones des événements de parole et de classifier les groupes d'interactions (machine learning : SKlearn).
  • réaliser l'interfaçage entre les capteurs, un microcontrôleur, et une application web (javascript)

Travail réalisé

Page wiki reliant à la documentation du travail réalisé sur ce projet : http://fablab.ensimag.fr/index.php/Actimetrie


Projet 5 : Tableau Interactif

Cadre du projet :

  • Encadrant : Jérôme Maisonnasse
  • Nombre d'étudiants : 3 à 5
  • Lieu : le projet aura lieu dans l'atelier du fabMSTIC


Contexte

Dans le cadre de la « smart classroom » , nous disposons d’un tableau blanc avec videoprojection et caméra. Plusieurs applications ont été développées allant de la numérisation de contenus écrits au feutre sur le tableau, jusqu'à la manipulation de contenus numériques, ex: zoom et translation.

Jusqu’à présent l’interaction avec les données videoprojetées était possible en utilisant des jetons de couleur. Pour améliorer la robustesse de la détection, nous vous proposons d’utiliser une approche différente à base de lumière infra rouge pour simplifier la détection.

L’objectif du projet est d’améliorer la performance et la fluidité des interactions. https://www.youtube.com/watch?v=HCSl2ZEki5I

Sujet

Dans le cadre ce projet, nous vous proposons de :

  • de vous initier à la vision par ordinateur (open cv).
  • de proposer de nouvelles formes d'interaction avec le tableau interactif (java, javascript).

Travail Réalisé

http://fablab.ensimag.fr/index.php/Tableau-Interactif-2016

Projet 6 : Suivi de personne pour robot de téléprésence

Cadre du projet :

  • Encadrant : Jérôme Maisonnasse
  • Nombre d'étudiants : 3 à 5
  • Lieu : le projet aura lieu dans l'atelier du fabMSTIC


Contexte

La robotique de téléprésence est en plein essor. Ces robots fournissent un service de visioconférence mobile permettant aux utilisateurs de se déplacer dans un salon, une salle de cours, un musée, etc.

Malgré la qualité technique de ces robots, le pilotage reste une tâche fastidieuse lorsque l’on ne partage pas le même espace. Pour cette raison, nous vous proposons de développer un outil basé vision par ordinateur pour caler le déplacement du robot sur une personne (« un guide ») en mouvement. Nous disposons de robots fonctionnels permettant l’expérimentation.


Sujet

Dans le cadre ce projet, nous vous proposons de :

  • de vous initier à la vision par ordinateur (open cv),
  • de vous initier à la robotique avec un robot roulant fonctionnel (ROS)
  • d'implémenter la fonction sur l'interface web de pilotage (javascript)

Travail Réalisé

Page wiki reliant à la documentation du travail réalisé sur ce projet : Rapport du projet

Projet 7 : Tapis interactif

Cadre du projet :

  • Encadrant : Jérôme Maisonnasse
  • Nombre d'étudiants : 3 à 5
  • Lieu : le projet aura lieu dans l'atelier du fabMSTIC et CHU


Contexte

Aujourd’hui, localiser une personne dans un habitat avec une granularité fine reste un problème technique majeur.

Dans un contexte d’habitat d’une personne en perte d’autonomie, en plus de la localisation, la détection de chute est une fonctionnalité particulièrement importante et complexe.

Sur la base de tapis interactifs de 2 m2 et de 12 m2, nous vous proposons de travailler à identifier certains événements (marche, saut, chute) et d’identifier certains objets/utilisateurs (humain, chien, meuble) et si possible valider la possibilité d’identifier la personne (longueur du pas, poids, etc.).


Sujet

Dans le cadre ce projet, nous vous proposons de :

  • de travailler à avec des microcontrollers (Arduino),
  • de faire du machine learning pour la reconnaissance des objets (ex: python SKlearn)
  • d'implémenter l'interface web de monitoring (javascript)


Travail Effectué

Page wiki du travail réalisé : http://fablab.ensimag.fr/index.php/Tapis_interactif_2016

Projet 8 : Georg

Cadre du projet :

  • Encadrant : Jérôme Maisonnasse
  • Nombre d'étudiants : 1
  • Lieu : le projet aura lieu dans les ateliers d'Amiqual4Home ainsi qu'au fabMSTIC


Contexte

Les systèmes de Smart Home deviennent de plus en plus populaires. Ils permettent de commander les appareil électroniques dans une maison à distance et de les programmer. Comme tous les objets connectés doivent être connectés à tout instant, ils consomment un courrant non négligable et on cherche à diminuer cette consommation.

Dans ce projet je propose donc de créer une prise intelligente à très base consommation. Cette prise sera commandée par un Smartphone via Bluetooth Low Energy. On disposera plus exactement de la possibilité d'allumer et d'éteindre le consommateur à distance. En plus on veut implanter une fonctionnalité Timeur, qui permet de programmer des temps auxquels la prise s'allume ou éteind automatiquement.


Sujet

Dans le cadre ce projet, je propose :

  • de travailler avec un vrai SoC avec un ARM Cortex M0 et la prériphérie Bluetooth Low Energy,
  • de faire la programmation hardware directement sur puce et non sur un board comparable au Arduino,
  • de créer une application Android,
  • de créer un PCB incluant génération de tension à partir de 230VAC, SoC, antenna network et antenne.


Travail Effectué

Page wiki reliant à la documentation du travail réalisé sur ce projet : ici


Projet 9 : Simulation 3D et contrôle d'un robot humanoide

Cadre du projet :

  • Encadrant : Lionel Reveret.
  • Nombre d'étudiants : 2.
  • Lieu : le projet aura lieu en salle FabLab, ou équivalente, à l'Ensimag.
  • Prérequis : programmation C++.

Contexte

Un kit de robot humanoïde de la série Bioloid est disponible au FabLab. Le but de ce projet est de mettre en oeuvre la programmation de ce kit. La programmation des mouvements de ces robots peut se faire via une interface C, puis être embarquée. Une bibliothèque Python a été aussi récemment proposée et permet d'aborder la programmation depuis plus haut niveau. Les servo-moteurs fonctionnent en boucle ouverte. Dans ce cadre très simple, on commencera par implémenter les mouvements de base proposés par le fabricant. Des capteurs sont disponibles et peuvent être couplés au robot. On pourra donc envisager d'implémenter un contrôle d'équilibre pour résister à des perturbations extérieures (poussée, terrain non plat, etc). En complément de la tâche de robotique, il est attendu pour ce projet de développer une simulation physique informatique des éléments et des mouvements du robot. Cette simulation permettra, d'une part de mesurer les limitations d'une simulation par rapport à un cas concret, et d'autre part, ouvrir des pistes de développement pour des nouveaux contrôleurs en servant de plateforme de test pour le robot. Bioloid.jpg

Le robot humanoide utilisé.

Travail demandé

Le travail porte à la fois sur la programmation du robot et sur la réalisation d'un code de simulation en 3D. Le kit robotique est bien sûr fourni. La programmation de la simulation se fera en utilisant un code fournit par des étudiants. Le projet comporte plusieurs étapes :

  • 1. prise en main du kit de base bioloid
  • 2. passage du projet initial sur Visual Studio
  • 3. simulation 3D du contrôle d'équilibre avec Bullet Physics Engine
  • 4. implémentation du contrôle d'équilibre sur le robot

Ce travail demande une bonne organisation, plusieurs étapes pouvant avantageusement se réaliser en parallèle.

Détails techniques

La programmation se fera en C ou python pour le robot et en C++ pour la simulation. Les sites suivant fournissent des bases de code :

  • Simulation Bioloid : projet étudiants, repris et actualisés par des étudiants 2A de cette année en module "FabLab et Innovation"

Bibliographie

  • Une très bonne introduction à la simulation physique a été faite et est considérée comme un standard en animation. Il est recommandé de lire tous les chapitres, au moins de prendre connaissance avec les transparents. Ces concepts seront repris avec l'encadrant.Cours de A. Witkin et D. Baraff
  • D'autres bibliothèques existent pour la simulation physique, telle que ODE ou Bullet. On trouve sur le site d'ODE une bonne introduction aux moteurs de physiques.Sur le site ODE, consulter les "slides".

Travail Effectué

Page web reliant au travail réalisé sur ce projet : tssajot.wix.com/fablabensimagbioloid

Archive du projet : Contacter Lionel Reveret

Projet 10 : Gants traducteurs du langage des signes

Cadre du projet

  • Encadrant : Jérôme Maisonnasse
  • Nombre d'étudiants : 3
  • Lieu : le projet aura lieu dans le Fablab de l'Ensimag

Contexte

Aujourd’hui un handicap physique est souvent la source d’une certaine difficulté d’insertion dans le monde professionnel. C’est particulièrement le cas pour les personnes sourdes et/ou muettes qui ne peuvent pas être comprises par des interlocuteurs ne parlant pas le langage des signes.

C’est dans ce contexte que nous avons décidé de concevoir pour notre projet Fablab des gants connectés capables de traduire et d’interprêter en direct le langage des signes français (LSF).

Sujet

Dans ce projet, nous allons :

  • Utiliser des capteurs de torsion et de pression innovants.
  • Prendre en main des arduinos Nanos et des accéléromètres.
  • Programmer des algorithmes de machine learning.

Travail Effectué

Page wiki reliant à la documentation du travail réalisé sur ce projet : Rapport du projet

Projet 11 : Reconnaissance de notes de guitare

Cadre du projet

  • Encadrant : Jérôme Maisonnasse
  • Nombre d'étudiants : 1
  • Lieu : le projet aura lieu dans le Fablab de l'Ensimag

Contexte

Étant musicien et guitariste, je trouvais intéressant de pouvoir utiliser sa guitare, à la manière d'un clavier contrôleur, pour dialoguer avec un logiciel de MAO (Musique Assistée par Ordinateur) en MIDI. Il serait alors possible de de programmer des mélodie, rythmes, percussions, effets à l'aide de sa guitare puisqu'on dialogue avec le software par liaison MIDI. En plus d'être amusant, cela pourrait s'avérer d'une grande utilité dans le monde de la composition musicale et de l'enregistrement studio/live.

Sujet

Dans le cadre de ce projet, je propose :

  • d'établir un schéma d'amplification permettant à la Arduino d'analyser le signal électrique envoyé par les micros d'une guitare.
  • de programmer un algorithme de détection de fréquence d'un signal bruitée à l'aide du principe d'auto-corrélation
  • de détailler l'interfaçage MIDI entre la carte Arduino et un logiciel de MAO (Musique Assistée par Ordinateur).

Travail Effectué

Page wiki reliant à la documentation du travail réalisé sur ce projet : Rapport du projet


Projet 12 : Gant connecté

Cadre du projet

  • Encadrant : Jérôme Maisonnasse
  • Nombre d'étudiants : 2
  • Lieu : le projet aura lieu dans le Fablab de l'Ensimag

Contexte

Aujourd'hui, nous sommes habitués a communiquer via un certains nombres d'interfaces avec nos appareils (écran tactile, souris, clavier). Dans ce contexte nous tentons de développer une manière innovante d’interagir avec un ordinateur grâce à un gant muni de différents capteurs.

Sujet

Ce projet comporte les points suivants :

  • Utilisation de capteurs de pression et d'un accéléromètre/gyroscope
  • Utilisation d'un arduino
  • Programmer un algorithme de reconnaissance de gestes

Travail Effectué

Page wiki reliant à la documentation du travail réalisé sur ce projet : Rapport du projet