FAQ

Comment le concept d’équilibre peut-il éclairer les projets d’apprentissage automatique ?

En général, un équilibre éclairera l’apprentissage automatique en cherchant à stabiliser les environnements d’apprentissage automatique et à créer des résultats avec un mélange compatible de composants déterministes et probabilistes.

Les experts décrivent un « équilibre » comme une situation dans laquelle les acteurs rationnels d'un système d'apprentissage automatique parviennent à un consensus sur une action stratégique. En particulier, l'équilibre de Nash dans la théorie des jeux implique que deux ou plusieurs de ces acteurs rationnels consolident leurs stratégies en reconnaissant qu'aucun joueur n'en profite. changer une stratégie particulière si les autres joueurs ne changent pas la leur.

Une démonstration simple et particulièrement populaire de l’équilibre de Nash implique une matrice simple dans laquelle deux joueurs choisissent chacun un résultat binaire.

Ce qui précède est une manière assez technique de décrire l’équilibre et son fonctionnement. Une façon beaucoup plus informelle d'illustrer le concept d'équilibre, en particulier l'exemple ci-dessus de deux acteurs rationnels ayant chacun un choix binaire, consiste à réfléchir à ce que l'on pourrait appeler le scénario « marcher l'un vers l'autre dans le couloir du lycée ».

Supposons que deux personnes marchent dans des directions différentes dans un couloir de lycée (ou tout autre type de zone), qui ne peut accueillir que deux personnes dans le sens de la largeur. Les deux chemins ouverts sont les résultats binaires. Si les deux acteurs rationnels choisissent des résultats binaires différents qui n’entrent pas en conflit, ils se croiseront et se diront bonjour. S’ils choisissent deux résultats binaires contradictoires, ils marchent dans le même espace et l’un d’eux devra céder.

Dans l’exemple ci-dessus, si les deux acteurs rationnels choisissent les deux résultats compatibles et non conflictuels, le consensus général est que ni l’un ni l’autre ne gagne à changer de stratégie – en l’occurrence son itinéraire de marche – si l’autre ne change pas la sienne.

Ce qui précède constitue un équilibre qui peut être modélisé dans n’importe quelle construction d’apprentissage automatique donnée. Étant donné cet exemple simple, le résultat sera toujours la coopération de deux acteurs rationnels, ou en d’autres termes, deux personnes se croisant.

L'inverse pourrait être qualifié de « déséquilibre » : si les deux acteurs rationnels choisissent des résultats contradictoires, comme nous l'avons mentionné, l'un d'eux devra céder. Cependant, le programme ML modélisant cela pourrait être lancé dans une boucle infinie si les deux décident de céder – un peu comme si deux personnes se déplaçaient pour essayer de s'adapter l'une à l'autre tout en continuant à marcher vers une collision.

Les équilibres comme celui ci-dessus seront généralement utilisés dans l’apprentissage automatique pour créer un consensus et stabiliser les modèles. Les ingénieurs et les développeurs rechercheront les scénarios et les situations qui bénéficient des équilibres, et s'efforceront de modifier ou de gérer ceux qui ne bénéficient pas d'équilibres. En regardant des exemples concrets qui correspondent aux équilibres ML, il est facile de voir à quel point ce type d'analyse dans le système d'apprentissage automatique est particulièrement instructif pour comprendre comment modéliser le comportement humain en créant des acteurs et des agents rationnels. Ce n’est là qu’un excellent exemple de la manière dont un équilibre peut être utilisé pour faire progresser l’application des systèmes d’apprentissage automatique.