PUBLIÉ
July 6, 2022
AUTEUR
Franziska Liebich
CATÉGORIE
Industry News
TAGS
Traitement d'image et caméras : comment les robots apprennent à voir - Unchained Robotics
Les robots dans les films de science-fiction sont souvent inspirés des humains. Cela vaut pour leur apparence et la manière dont ils interagissent avec leur environnement. Mais cela est loin de correspondre à la réalité. Est-ce que cela va changer à l'avenir ?
Les gens interagissent généralement avec leur environnement grâce à leurs cinq sens - l'ouïe, le toucher, le goût, l'odorat et la vue. Nous percevons les stimuli, les interprétons et réagissons généralement de manière intuitive, sans réfléchir. Cette capacité est extrêmement importante pour notre vie quotidienne et la perte d'un sens affecte généralement la personne concernée.
Les robots ne possèdent cependant aucun de ces sens. Néanmoins, les robots devraient à l'avenir être capables d'interagir avec leur environnement et de réagir automatiquement aux changements. Comment pouvons-nous donc apprendre aux robots à percevoir leur environnement ? Ou en bref : comment les robots voient-ils ?
Qu'est-ce que "voir" de toute façon ?
Quand nous parlons de "voir", qu'entendons-nous par là ? Que doit-il se passer chez une personne pour qu'elle puisse voir ?
Nos yeux recueillent la lumière réfléchie par les objets qui nous entourent. Lorsque la lumière atteint la rétine, elle est convertie en signaux électriques et transmise au cerveau via le nerf optique. Là, les signaux électriques sont traités et interprétés à l'aide de nos souvenirs. Nous utilisons ensuite l'image qui en résulte pour nous orienter dans le monde. Cette interprétation des données que nous recueillons est la partie vraiment importante du processus.
La manière exacte dont ce processus se déroule n'est pas claire. Mais les chercheurs estiment que le processus est tellement complexe et étendu que la moitié de notre cerveau est occupée à traiter les informations que nos yeux recueillent. Il s'agit donc d'un processus extrêmement complexe.
Il existe cependant de nombreux autres types d'yeux dans la nature, qui permettent aux différentes espèces de voir, même si de nombreux cerveaux d'animaux ont une puissance de calcul bien moindre. C'est particulièrement vrai pour les insectes, par exemple. Il est donc en principe possible de rendre possible un "type" de vision sans l'immense puissance de calcul d'un cerveau humain - ou d'un demi-cerveau.[i]
Quel est l'intérêt d'apprendre à un robot à voir ?
Mais pourquoi - si ce processus est si compliqué - voulons-nous absolument apprendre aux robots à voir ? Juste pour faire de la science-fiction de la science-fiction ? Les robots peuvent déjà faire des choses impressionnantes : ils peuvent par exemple travailler en collaboration avec des humains dans des usines ou livrer rapidement des paquets dans un entrepôt.[ii]
Mais il y a aussi beaucoup de choses que les robots ne peuvent pas faire, justement parce qu'ils n'ont pas la capacité de voir. Dans la robotique industrielle, le guidage visuel des robots en 2D et 3D permet d'automatiser les processus tels que la production, l'assemblage et la manipulation des matériaux de manière plus flexible que ce qui était possible auparavant. Compte tenu de l'importance croissante de la personnalisation de masse et de la taille des lots, cette technologie est donc extrêmement importante.[iii]
Les robots industriels traditionnels sont basés sur une technologie qui a déjà 60 ans et qui repose sur une précision absolue, car les machines ne savent pas ce qu'elles font. En dehors des usines pour lesquelles ils ont été construits, ils ne peuvent pas agir efficacement. Même de petites différences, par exemple dans la position des objets à déplacer, peuvent poser un problème pour le processus.[iv]
Les robots capables de reconnaître et d'interpréter ce qui se passe dans leur environnement seraient également en mesure d'effectuer des tâches qui, jusqu'à présent, sont toujours gérées par des humains. Cela serait très utile dans de nombreux endroits : dans les industries où il y a un manque de main-d'œuvre, dans les zones qui ne sont pas attrayantes ou même dangereuses pour les humains, dans les étapes de travail qui nécessitent une grande concentration pendant une longue période, et même chez soi ou même dans la salle d'opération.[v]
Pour que les robots s'intègrent davantage dans notre vie et notre travail et utilisent tout leur potentiel, il est nécessaire de développer une sorte de "sens de la vue" - au sens large du terme. Sans cela, ils ne seront pas en mesure de comprendre leur environnement dans son contexte.
Source : DENSO Robotics
Pourquoi est-il si difficile d'apprendre aux robots à voir ?
Quels sont donc les obstacles concrets qu'il faut surmonter pour permettre à un robot de percevoir son environnement et de l'interpréter correctement ?
Dans le contexte industriel, le fait de retirer une pièce d'une caisse dans laquelle se trouvent de nombreuses autres pièces en désordre est particulièrement un défi, car le robot a du mal à reconnaître les objets non triés. Au cours de sa vie, un être humain apprend quelle signification se cache derrière les images qu'il voit. En revanche, le système de traitement d'images d'un robot n'identifie correctement les objets que si ceux-ci ont été programmés ou entraînés au préalable. C'est pourquoi les développeurs de systèmes de traitement d'images doivent savoir à l'avance ce qu'il faudra faire plus tard pour écrire un algorithme correspondant.[vi]
Les débuts
Avec une caméra numérique, on peut permettre au robot de recueillir des informations sur son environnement. Au début des années 1960, on était encore convaincu que l'obtention d'informations à partir d'images de caméras serait facile. Mais c'était - malheureusement - loin d'être le cas : entre-temps, des champs de recherche entiers se sont formés autour de cette problématique : La "vision automatique" et l'"apprentissage automatique" sont particulièrement importants ici[vii].
A la place d'un cerveau, un robot a un ordinateur qui traite les signaux recueillis par les capteurs et envoie ensuite des commandes aux moteurs. Les données d'image et de profondeur, c'est-à-dire les couleurs et les distances entre la caméra et l'objet, sont particulièrement utiles. Mais le robot ne doit pas seulement voir son environnement, il doit aussi pouvoir reconnaître les objets qui s'y trouvent.
Il doit donc établir un lien entre les informations sur les couleurs et la sémantique qui décrit ce que représente une image. Une image est composée de plusieurs millions de pixels : des points de couleur, avec des couleurs uniques, qui sont stockés sous forme de nombre. L'ensemble de ces nombres doit être converti en informations qui montrent ce qui est visible sur une image.[viii]
Les défis
L'une des difficultés est de convertir la grande quantité d'informations enregistrées en signaux simples et abstraits que le robot peut comprendre. C'est extrêmement exigeant d'un point de vue mathématique et c'est d'autant plus difficile que les influences extérieures comme le temps et l'heure du jour jouent également un rôle. Les humains peuvent reconnaître ces informations comme non pertinentes et se concentrer sur ce qui est important. Les robots doivent d'abord apprendre à le faire - un processus long et fastidieux.[ix]
Les informations pertinentes pour la reconnaissance et la compréhension de l'environnement sont la position du robot sur une carte, la position et l'orientation 3D des objets qui l'entourent, le mouvement des objets, le type d'objet, les formes possibles d'interaction (par exemple la possibilité de saisir l'objet), la zone praticable ou carrossable et les obstacles ainsi que la structure de l'environnement immédiat.[x]
Dans des cas d'application comme les voitures à conduite automatique, les caméras sont complétées par d'autres capteurs. Il peut s'agir d'ultrasons, mais aussi de radars, de sonars ou de capteurs infrarouges. Tous ces capteurs émettent des ondes - lumière ou son - et mesurent ensuite ce qui est renvoyé par l'environnement. On obtient ainsi une image de l'environnement, mais on ne peut pas reconnaître ce qui est quoi. Le robot - ou dans ce cas la voiture - ne peut pas comprendre son environnement car il ne reconnaît pas les différents objets.
Mais il ne doit pas seulement reconnaître les objets, mais aussi ce que pourraient être les conséquences ou les intentions possibles lorsqu'un objet apparaît : si une balle roule sur la route, il se peut qu'un enfant court après. Une voiture qui se conduit toute seule devrait pouvoir le reconnaître et réagir en conséquence.[xi]
Source : Media Print
Quels sont les modèles qui permettent aux robots de reconnaître leur environnement ?
Il existe différentes approches pour aider les robots à percevoir et à reconnaître leur environnement. Certaines ont déjà été brièvement mentionnées auparavant, mais nous allons ici examiner plus en détail les différences, les avantages et les inconvénients.
Capteur à ultrasons
Peut-être la manière la plus courante de détecter les obstacles est d'utiliser un capteur à ultrasons ou un sondeur : Un haut-parleur émet des ondes sonores à haute fréquence. Celles-ci se propagent et sont renvoyées lorsqu'elles rencontrent un obstacle. Un microphone détecte ces ondes de retour. On mesure le temps que met l'onde pour aller et revenir.[xii]
Comme nous l'avons mentionné plus haut, cette technique a cependant un problème : elle ne fait que détecter que quelque chose se trouve devant - ou à côté ou derrière - elle. Mais elle ne peut pas faire la différence entre les objets et ne peut donc réagir que de manière très limitée.
LiDAR : Light Detection and Ranging
Une technique très similaire consiste à détecter l'environnement en envoyant des ondes lumineuses (généralement de la lumière infrarouge) et en mesurant le temps nécessaire à la lumière pour être renvoyée. Il existe trois variantes différentes de ce type de capteur:
Les capteurs qui n'émettent qu'un seul faisceau lumineux sont généralement utilisés pour mesurer les distances par rapport à de grands objets (par ex. murs, sol, plafond)
Les capteurs qui émettent plusieurs faisceaux lumineux à la fois sont utiles pour éviter les collisions et reconnaître les objets.
Les capteurs rotatifs produisent un faisceau lumineux pendant qu'ils tournent. Ceux-ci sont également utilisés pour détecter les objets et éviter les collisions.[xiii]
Si l'on saisit de cette manière plusieurs millions de distances dans toutes les directions, on obtient un nuage de points qui permet une représentation approximative de l'espace environnant.
Mais là aussi, il y a des problèmes : les surfaces réfléchissantes ne renvoient pas les impulsions lumineuses au capteur, mais - selon la règle "angle d'incidence = angle de sortie" - dans une autre direction. De plus, la mesure peut être affectée par le brouillard ou la pluie, car les molécules d'eau détournent également la lumière. De plus, le processus est relativement lent et les appareils sont jusqu'à présent très chers pour le fait que l'"image" créée ne se base que sur des données géométriques. La vision humaine, en revanche, saisit également la couleur et la texture. Mais les prix ont aussi baissé ces dernières années.[xiv]
Source : Note Thanun via Unsplash.com
Caméras et traitement d'image
Comment un robot reconnaît-il ce qui est visible sur l'image d'une caméra ? Avec une caméra vidéo, on prend des images en continu qui sont transmises à l'ordinateur. Ensuite, un algorithme cherche des éléments frappants dans les images : Des lignes, des points ou des coins intéressants et certaines textures qu'il peut suivre d'une image à l'autre.
Selon ce que le robot verra et devra faire, un logiciel est alors développé pour reconnaître les modèles et aider le robot à comprendre ce qui se trouve autour de lui. Il peut créer une carte de base de l'environnement pendant que le robot travaille ou essayer de comparer les caractéristiques qu'il reconnaît sur les images avec sa base de données pour trouver ce qu'il cherche.
Ce type de programmation n'est pas assez fiable à lui seul pour empêcher le robot d'entrer en collision avec quelque chose ou de tomber. On la complète avec les modèles décrits ci-dessus pour la rendre utilisable.
Comme on obtient de plus en plus de puissance de calcul pour de moins en moins d'argent, cette technologie devient maintenant utilisable dans la vie réelle[xv]. L'apprentissage reste cependant important, car les robots ont besoin de plus de données d'entraînement que les humains. C'est pourquoi le Centre aérospatial allemand a développé une méthode qui n'utilise pas d'images réelles, mais qui simule des scènes. Ainsi, l'information qui doit être apprise (par exemple le type d'objet) peut aussi être co-générée directement sur l'ordinateur.[xvi].
Une nouvelle direction : l'apprentissage automatique
Une nouvelle direction de recherche prend un chemin légèrement différent : au lieu de programmer le système, il doit être capable d'apprendre. Inspirés par la façon dont les chercheurs supposent que les animaux voient, ils développent une structure. Cette structure du système n'est pas un algorithme, mais la base de ce que le robot élabore lui-même - ce qu'il apprend. En apprenant, les robots peuvent également partager les connaissances qu'ils ont acquises : Ainsi, chaque robot ne doit pas partir de zéro. Au lieu de cela, il peut accéder aux connaissances collectées par d'autres robots, par exemple via un cloud. Il suffirait alors qu'un robot résolve une tâche complexe pour que tous les autres robots du réseau l'apprennent également. Une idée effrayante pour certains et excitante pour d'autres.[xvii]
Développement du matérielUn problème avec cette technique sont les considérations de protection des données, pour lesquelles aucune norme ou règle n'a encore été établie.[xix]
Fazit
En plus de l'apprentissage automatique, on développe aussi de nouvelles caméras qui peuvent même mieux voir que les yeux d'un être humain : Une nouvelle caméra, développée par des chercheurs de l'université de Stanford, s'inspire des yeux des insectes : Elle dispose de 200 000 microlentilles extrêmement petites qui recueillent des informations détaillées sur chaque stimulus lumineux qu'elles reçoivent. Cette "photographie de champ de lumière", ou photographie calculée, est capable de capturer un champ de vision plus large que celui des humains et de recueillir plus d'informations.[xviii]
.
Apprendre aux robots à voir est un grand défi. Mais en même temps, c'est une idée qui a le potentiel d'ouvrir de nombreux nouveaux domaines d'application pour les robots, et de rendre les existants plus efficaces.
Le plus grand défi est de faire comprendre au robot ce qui se trouve dans son environnement et s'il doit y réagir. Et si oui, comment il doit réagir. L'apprentissage automatique a permis de faire de grands progrès dans ce domaine, et le traitement des images et la technologie des caméras ont également évolué.
Pour l'instant, on combine encore différents types de capteurs - surtout pour les voitures à conduite automatique - afin de pouvoir compenser les faiblesses de chaque système.
Où allons-nous ?
Tu veux commencer directement à créer ta propre solution d'automatisation ? Alors visite notre configurateur!
.
Ou tu veux en savoir plus sur le processus d'intégration ? Alors télécharge notre livre blanc gratuit : "Intégration des processus : en 5 étapes vers l'automatisation"
Tu veux en savoir plus sur le monde de la robotique ? Tu seras peut-être intéressé par ces autres articles:
10 règles à suivre pour l'automatisation
Quels sont les points importants lors de la création d'une solution d'automatisation ?
Etude de cas : intégration d'une solution de palettisation chez Media Print
Qu'est-ce que les cobots ?
Les 5 principaux avantages des cobots
.
Les gens interagissent généralement avec leur environnement grâce à leurs cinq sens - l'ouïe, le toucher, le goût, l'odorat et la vue. Nous percevons les stimuli, les interprétons et réagissons généralement de manière intuitive, sans réfléchir. Cette capacité est extrêmement importante pour notre vie quotidienne et la perte d'un sens affecte généralement la personne concernée.
Les robots ne possèdent cependant aucun de ces sens. Néanmoins, les robots devraient à l'avenir être capables d'interagir avec leur environnement et de réagir automatiquement aux changements. Comment pouvons-nous donc apprendre aux robots à percevoir leur environnement ? Ou en bref : comment les robots voient-ils ?
Qu'est-ce que "voir" de toute façon ?
Quand nous parlons de "voir", qu'entendons-nous par là ? Que doit-il se passer chez une personne pour qu'elle puisse voir ?
Nos yeux recueillent la lumière réfléchie par les objets qui nous entourent. Lorsque la lumière atteint la rétine, elle est convertie en signaux électriques et transmise au cerveau via le nerf optique. Là, les signaux électriques sont traités et interprétés à l'aide de nos souvenirs. Nous utilisons ensuite l'image qui en résulte pour nous orienter dans le monde. Cette interprétation des données que nous recueillons est la partie vraiment importante du processus.
La manière exacte dont ce processus se déroule n'est pas claire. Mais les chercheurs estiment que le processus est tellement complexe et étendu que la moitié de notre cerveau est occupée à traiter les informations que nos yeux recueillent. Il s'agit donc d'un processus extrêmement complexe.
Il existe cependant de nombreux autres types d'yeux dans la nature, qui permettent aux différentes espèces de voir, même si de nombreux cerveaux d'animaux ont une puissance de calcul bien moindre. C'est particulièrement vrai pour les insectes, par exemple. Il est donc en principe possible de rendre possible un "type" de vision sans l'immense puissance de calcul d'un cerveau humain - ou d'un demi-cerveau.[i]
Quel est l'intérêt d'apprendre à un robot à voir ?
Mais pourquoi - si ce processus est si compliqué - voulons-nous absolument apprendre aux robots à voir ? Juste pour faire de la science-fiction de la science-fiction ? Les robots peuvent déjà faire des choses impressionnantes : ils peuvent par exemple travailler en collaboration avec des humains dans des usines ou livrer rapidement des paquets dans un entrepôt.[ii]
Mais il y a aussi beaucoup de choses que les robots ne peuvent pas faire, justement parce qu'ils n'ont pas la capacité de voir. Dans la robotique industrielle, le guidage visuel des robots en 2D et 3D permet d'automatiser les processus tels que la production, l'assemblage et la manipulation des matériaux de manière plus flexible que ce qui était possible auparavant. Compte tenu de l'importance croissante de la personnalisation de masse et de la taille des lots, cette technologie est donc extrêmement importante.[iii]
Les robots industriels traditionnels sont basés sur une technologie qui a déjà 60 ans et qui repose sur une précision absolue, car les machines ne savent pas ce qu'elles font. En dehors des usines pour lesquelles ils ont été construits, ils ne peuvent pas agir efficacement. Même de petites différences, par exemple dans la position des objets à déplacer, peuvent poser un problème pour le processus.[iv]
Les robots capables de reconnaître et d'interpréter ce qui se passe dans leur environnement seraient également en mesure d'effectuer des tâches qui, jusqu'à présent, sont toujours gérées par des humains. Cela serait très utile dans de nombreux endroits : dans les industries où il y a un manque de main-d'œuvre, dans les zones qui ne sont pas attrayantes ou même dangereuses pour les humains, dans les étapes de travail qui nécessitent une grande concentration pendant une longue période, et même chez soi ou même dans la salle d'opération.[v]
Pour que les robots s'intègrent davantage dans notre vie et notre travail et utilisent tout leur potentiel, il est nécessaire de développer une sorte de "sens de la vue" - au sens large du terme. Sans cela, ils ne seront pas en mesure de comprendre leur environnement dans son contexte.
Source : DENSO Robotics
Pourquoi est-il si difficile d'apprendre aux robots à voir ?
Quels sont donc les obstacles concrets qu'il faut surmonter pour permettre à un robot de percevoir son environnement et de l'interpréter correctement ?
Dans le contexte industriel, le fait de retirer une pièce d'une caisse dans laquelle se trouvent de nombreuses autres pièces en désordre est particulièrement un défi, car le robot a du mal à reconnaître les objets non triés. Au cours de sa vie, un être humain apprend quelle signification se cache derrière les images qu'il voit. En revanche, le système de traitement d'images d'un robot n'identifie correctement les objets que si ceux-ci ont été programmés ou entraînés au préalable. C'est pourquoi les développeurs de systèmes de traitement d'images doivent savoir à l'avance ce qu'il faudra faire plus tard pour écrire un algorithme correspondant.[vi]
Les débuts
Avec une caméra numérique, on peut permettre au robot de recueillir des informations sur son environnement. Au début des années 1960, on était encore convaincu que l'obtention d'informations à partir d'images de caméras serait facile. Mais c'était - malheureusement - loin d'être le cas : entre-temps, des champs de recherche entiers se sont formés autour de cette problématique : La "vision automatique" et l'"apprentissage automatique" sont particulièrement importants ici[vii].
A la place d'un cerveau, un robot a un ordinateur qui traite les signaux recueillis par les capteurs et envoie ensuite des commandes aux moteurs. Les données d'image et de profondeur, c'est-à-dire les couleurs et les distances entre la caméra et l'objet, sont particulièrement utiles. Mais le robot ne doit pas seulement voir son environnement, il doit aussi pouvoir reconnaître les objets qui s'y trouvent.
Il doit donc établir un lien entre les informations sur les couleurs et la sémantique qui décrit ce que représente une image. Une image est composée de plusieurs millions de pixels : des points de couleur, avec des couleurs uniques, qui sont stockés sous forme de nombre. L'ensemble de ces nombres doit être converti en informations qui montrent ce qui est visible sur une image.[viii]
Les défis
L'une des difficultés est de convertir la grande quantité d'informations enregistrées en signaux simples et abstraits que le robot peut comprendre. C'est extrêmement exigeant d'un point de vue mathématique et c'est d'autant plus difficile que les influences extérieures comme le temps et l'heure du jour jouent également un rôle. Les humains peuvent reconnaître ces informations comme non pertinentes et se concentrer sur ce qui est important. Les robots doivent d'abord apprendre à le faire - un processus long et fastidieux.[ix]
Les informations pertinentes pour la reconnaissance et la compréhension de l'environnement sont la position du robot sur une carte, la position et l'orientation 3D des objets qui l'entourent, le mouvement des objets, le type d'objet, les formes possibles d'interaction (par exemple la possibilité de saisir l'objet), la zone praticable ou carrossable et les obstacles ainsi que la structure de l'environnement immédiat.[x]
Dans des cas d'application comme les voitures à conduite automatique, les caméras sont complétées par d'autres capteurs. Il peut s'agir d'ultrasons, mais aussi de radars, de sonars ou de capteurs infrarouges. Tous ces capteurs émettent des ondes - lumière ou son - et mesurent ensuite ce qui est renvoyé par l'environnement. On obtient ainsi une image de l'environnement, mais on ne peut pas reconnaître ce qui est quoi. Le robot - ou dans ce cas la voiture - ne peut pas comprendre son environnement car il ne reconnaît pas les différents objets.
Mais il ne doit pas seulement reconnaître les objets, mais aussi ce que pourraient être les conséquences ou les intentions possibles lorsqu'un objet apparaît : si une balle roule sur la route, il se peut qu'un enfant court après. Une voiture qui se conduit toute seule devrait pouvoir le reconnaître et réagir en conséquence.[xi]
Source : Media Print
Quels sont les modèles qui permettent aux robots de reconnaître leur environnement ?
Il existe différentes approches pour aider les robots à percevoir et à reconnaître leur environnement. Certaines ont déjà été brièvement mentionnées auparavant, mais nous allons ici examiner plus en détail les différences, les avantages et les inconvénients.
Capteur à ultrasons
Peut-être la manière la plus courante de détecter les obstacles est d'utiliser un capteur à ultrasons ou un sondeur : Un haut-parleur émet des ondes sonores à haute fréquence. Celles-ci se propagent et sont renvoyées lorsqu'elles rencontrent un obstacle. Un microphone détecte ces ondes de retour. On mesure le temps que met l'onde pour aller et revenir.[xii]
Comme nous l'avons mentionné plus haut, cette technique a cependant un problème : elle ne fait que détecter que quelque chose se trouve devant - ou à côté ou derrière - elle. Mais elle ne peut pas faire la différence entre les objets et ne peut donc réagir que de manière très limitée.
LiDAR : Light Detection and Ranging
Une technique très similaire consiste à détecter l'environnement en envoyant des ondes lumineuses (généralement de la lumière infrarouge) et en mesurant le temps nécessaire à la lumière pour être renvoyée. Il existe trois variantes différentes de ce type de capteur:
Les capteurs qui n'émettent qu'un seul faisceau lumineux sont généralement utilisés pour mesurer les distances par rapport à de grands objets (par ex. murs, sol, plafond)
Les capteurs qui émettent plusieurs faisceaux lumineux à la fois sont utiles pour éviter les collisions et reconnaître les objets.
Les capteurs rotatifs produisent un faisceau lumineux pendant qu'ils tournent. Ceux-ci sont également utilisés pour détecter les objets et éviter les collisions.[xiii]
Si l'on saisit de cette manière plusieurs millions de distances dans toutes les directions, on obtient un nuage de points qui permet une représentation approximative de l'espace environnant.
Mais là aussi, il y a des problèmes : les surfaces réfléchissantes ne renvoient pas les impulsions lumineuses au capteur, mais - selon la règle "angle d'incidence = angle de sortie" - dans une autre direction. De plus, la mesure peut être affectée par le brouillard ou la pluie, car les molécules d'eau détournent également la lumière. De plus, le processus est relativement lent et les appareils sont jusqu'à présent très chers pour le fait que l'"image" créée ne se base que sur des données géométriques. La vision humaine, en revanche, saisit également la couleur et la texture. Mais les prix ont aussi baissé ces dernières années.[xiv]
Source : Note Thanun via Unsplash.com
Caméras et traitement d'image
Comment un robot reconnaît-il ce qui est visible sur l'image d'une caméra ? Avec une caméra vidéo, on prend des images en continu qui sont transmises à l'ordinateur. Ensuite, un algorithme cherche des éléments frappants dans les images : Des lignes, des points ou des coins intéressants et certaines textures qu'il peut suivre d'une image à l'autre.
Selon ce que le robot verra et devra faire, un logiciel est alors développé pour reconnaître les modèles et aider le robot à comprendre ce qui se trouve autour de lui. Il peut créer une carte de base de l'environnement pendant que le robot travaille ou essayer de comparer les caractéristiques qu'il reconnaît sur les images avec sa base de données pour trouver ce qu'il cherche.
Ce type de programmation n'est pas assez fiable à lui seul pour empêcher le robot d'entrer en collision avec quelque chose ou de tomber. On la complète avec les modèles décrits ci-dessus pour la rendre utilisable.
Comme on obtient de plus en plus de puissance de calcul pour de moins en moins d'argent, cette technologie devient maintenant utilisable dans la vie réelle[xv]. L'apprentissage reste cependant important, car les robots ont besoin de plus de données d'entraînement que les humains. C'est pourquoi le Centre aérospatial allemand a développé une méthode qui n'utilise pas d'images réelles, mais qui simule des scènes. Ainsi, l'information qui doit être apprise (par exemple le type d'objet) peut aussi être co-générée directement sur l'ordinateur.[xvi].
Une nouvelle direction : l'apprentissage automatique
Une nouvelle direction de recherche prend un chemin légèrement différent : au lieu de programmer le système, il doit être capable d'apprendre. Inspirés par la façon dont les chercheurs supposent que les animaux voient, ils développent une structure. Cette structure du système n'est pas un algorithme, mais la base de ce que le robot élabore lui-même - ce qu'il apprend. En apprenant, les robots peuvent également partager les connaissances qu'ils ont acquises : Ainsi, chaque robot ne doit pas partir de zéro. Au lieu de cela, il peut accéder aux connaissances collectées par d'autres robots, par exemple via un cloud. Il suffirait alors qu'un robot résolve une tâche complexe pour que tous les autres robots du réseau l'apprennent également. Une idée effrayante pour certains et excitante pour d'autres.[xvii]
Développement du matérielUn problème avec cette technique sont les considérations de protection des données, pour lesquelles aucune norme ou règle n'a encore été établie.[xix]
Fazit
En plus de l'apprentissage automatique, on développe aussi de nouvelles caméras qui peuvent même mieux voir que les yeux d'un être humain : Une nouvelle caméra, développée par des chercheurs de l'université de Stanford, s'inspire des yeux des insectes : Elle dispose de 200 000 microlentilles extrêmement petites qui recueillent des informations détaillées sur chaque stimulus lumineux qu'elles reçoivent. Cette "photographie de champ de lumière", ou photographie calculée, est capable de capturer un champ de vision plus large que celui des humains et de recueillir plus d'informations.[xviii]
.
Apprendre aux robots à voir est un grand défi. Mais en même temps, c'est une idée qui a le potentiel d'ouvrir de nombreux nouveaux domaines d'application pour les robots, et de rendre les existants plus efficaces.
Le plus grand défi est de faire comprendre au robot ce qui se trouve dans son environnement et s'il doit y réagir. Et si oui, comment il doit réagir. L'apprentissage automatique a permis de faire de grands progrès dans ce domaine, et le traitement des images et la technologie des caméras ont également évolué.
Pour l'instant, on combine encore différents types de capteurs - surtout pour les voitures à conduite automatique - afin de pouvoir compenser les faiblesses de chaque système.
Où allons-nous ?
Tu veux commencer directement à créer ta propre solution d'automatisation ? Alors visite notre configurateur!
.
Ou tu veux en savoir plus sur le processus d'intégration ? Alors télécharge notre livre blanc gratuit : "Intégration des processus : en 5 étapes vers l'automatisation"
Tu veux en savoir plus sur le monde de la robotique ? Tu seras peut-être intéressé par ces autres articles:
10 règles à suivre pour l'automatisation
Quels sont les points importants lors de la création d'une solution d'automatisation ?
Etude de cas : intégration d'une solution de palettisation chez Media Print
Qu'est-ce que les cobots ?
Les 5 principaux avantages des cobots
.
Références
- [i] Roberts, Jonathan (22 décembre 2015) : " Comment les robots " voient " le monde ? ", https://phys.org/news/2015-12-robots-world.html.
- [ii] Amin, Geet (24 juin 2019) : " Comment les robots perçoivent le monde qui les entoure ", https://www.roboticsbusinessreview.com/news/how-robots-perceive-the-world-around-them/.
- [iii] Kunze, Sariana (April 23, 2019) : "Comment les capteurs permettent aux robots de sentir, de voir et d'apprendre", https://www.elektrotechnik.vogel.de/wie-sensoren-roboter-fuehlen-sehen-und-lernen-lassen-a-820602.
- [iv] Condie, Bill (01 octobre 2017) : "Faire voir les robots. L'apprentissage automatique et les réseaux neuronaux profonds aident les roboticiens à créer des machines capables de voir leur environnement. Bill COndie rapporte", https://cosmosmagazine.com/technology/making-robots-see/.
- [v] Roberts, Jonathan (22 décembre 2015) : " Comment les robots " voient " le monde ? ", https://phys.org/news/2015-12-robots-world.html.
- [vi] Fischer, Teresa (January 30, 2020) : "Quand les robots apprennent à voir", https://www.blog.kuka.com/2020/01/30/wenn-roboter-sehen-lernen/.
- [vii] Roberts, Jonathan (22 décembre 2015) : " Comment les robots " voient " le monde ? ", https://phys.org/news/2015-12-robots-world.html.
- [viii] Triebel, Rudolph (June 25, 2020) : ""Comment l'intelligence artificielle nous aide à apprendre aux robots à "voir"", https://www.dlr.de/blogs/alle-blogs/wie-kuenstliche-intelligenz-uns-hilft-robotern-das-sehen-beizubringen.aspx.
- [ix] Geiger, Andreas (2015) : "Les robots apprennent à voir", https://www.mpg.de/9922487/mpi-mf_jb_2015.
- [x] Triebel, Rudolph (June 25, 2020) : ""Comment l'intelligence artificielle nous aide à apprendre aux robots à "voir"", https://www.dlr.de/blogs/alle-blogs/wie-kuenstliche-intelligenz-uns-hilft-robotern-das-sehen-beizubringen.aspx.
- [xi] Swain, Frank (25 août 2020) : "Robotique : Comment les machines voient le monde", https://www.bbc.com/future/article/20140822-the-odd-way-robots-see-the-world.
- [xii] Wevolver (2019) : " Comment les robots " voient " en 3D ? ", https://www.hackster.io/news/how-do-robots-see-in-3d-7374737e7e99.
- [xiii] Amin, Geet (24 juin 2019) : " Comment les robots perçoivent le monde qui les entoure ", https://www.roboticsbusinessreview.com/news/how-robots-perceive-the-world-around-them/.
- [xiv] Kell, Adam (08 août 2016) : " C'est ainsi que les robots voient ", https://blog.cometlabs.io/this-is-how-robots-see-aa353b0cd857.
- [xv] Roberts, Jonathan (22 décembre 2015) : " Comment les robots " voient " le monde ? ", https://phys.org/news/2015-12-robots-world.html.
- [xvi] Triebel, Rudolph (June 25, 2020) : ""Comment l'intelligence artificielle nous aide à apprendre aux robots à "voir"", https://www.dlr.de/blogs/alle-blogs/wie-kuenstliche-intelligenz-uns-hilft-robotern-das-sehen-beizubringen.aspx.
- [xvii] Roberts, Jonathan (22 décembre 2015) : " Comment les robots " voient " le monde ? ", https://phys.org/news/2015-12-robots-world.html.
- [xviii] Orns, Steven (17 novembre 2017) : "Voir le monde à travers les yeux d'un robot", https://www.sciencenewsforstudents.org/article/seeing-world-through-robots-eyes.
- [xix] Fischer, Teresa (January 30, 2020) : "Quand les robots apprennent à voir", https://www.blog.kuka.com/2020/01/30/wenn-roboter-sehen-lernen/.
Finde den passenden Roboter
Erstelle deine Lösung