Home Assistant plonge dans le monde de l’IA générative

Si 2023 fut l’année de voix pour Home Assistant, elle fut surtout celle de la démocratisation de l’IA. Une tendance qui n’a pas échappé à Nabu Casa, qui nous a très vite permis de jouer avec les plus grands modèles de langage (LLM) du marché. A l’occasion de sa prochaine mise à jour, l’éditeur du système domotique a annoncé vouloir aller encore plus en nous proposant d’utiliser ces LLM pour piloter nos maisons connectées grâce à l’IA générative. De quoi ringardiser nos bons vieux assistants vocaux ?

Pilotez votre domotique Home Assistant grâce à l’IA et aux LLM

Bien qu’il soit déjà possible de piloter Home Assistant à la voix, l’agent conversationnel Assist est relativement basique et se contente d’interpréter l’intention derrière une commande vocale, d’effectuer une action et de générer une réponse. Avec plus ou moins de succès, Alexa et Google Assistant demeurant bien plus efficaces. C’est pourquoi Nabu Casa souhaite aller plus loin en nous permettant d’utiliser une IA générative avec Assist. Non, l’entreprise californienne n’est pas allée jusqu’à développer son propre LLM, mais elle nous permettra prochainement d’utiliser les plus célèbres du marché.

En effet, si nous avons déjà la possibilité d’utiliser les chatbots de Google et OpenAI en tant que services, ils ne nous permettent pas pour autant de piloter notre domotique. Une limitation qui appartiendra très bientôt au passé avec la possibilité de lier Assist à ChatGPT ou Gemini dans Home Assistant 2024.6. Une fonctionnalité intéressante qui devrait faire son apparition dès jeudi, mais qui ne plaira pas à tous car elle ne sera ni gratuite, ni garante de notre confidentialité.

Le vrai coût de l’IA générative

C’est un peu là où le bât blesse. Lier votre instance Home Assistant à ChatGPT ou Gemini nécessite une clé d’API et, vous le savez probablement déjà, leur utilisation n’est pas gratuite. En effet, OpenAI et Google facturent l’utilisation de leurs services. Si le prix dépend directement du volume de tokens utilisés, il y a fort à parier que le simple fait de devoir payer pour utiliser une IA générative en rebutera plus d’un. A titre de comparaison, l’abonnement Alexa Plus qui devrait être proposé par Amazon est loin de faire l’unanimité sur notre communauté, 30% des utilisateurs refusant de payer pour une IA plus performante.

À LIRE :
Alexa Plus : une version payante avec de l'IA ?

Le second problème, et pas des moindres, tient en la confidentialité de nos données, les IA génératives soulevant des préoccupations légitimes en la matière. Au-delà de l’examen humain, les données des utilisateurs, y compris les conversations et les commandes vocales, peuvent être utilisées afin d’améliorer les modèles d’apprentissage automatique et sont parfois conservées plusieurs années. Google recommande d’ailleurs aux utilisateurs de ne pas partager d’informations confidentielles via Gemini. De son côté, OpenAI s’est engagée à ne pas entraîner ses modèles avec les données des entreprises, mais le sujet est beaucoup plus flou concernant les particuliers pour lesquels l’historique des conversations est conservé au moins 30 jours… En résumé, si l’idée est séduisante sur le papier, il nous faudra être attentif lors de la présentation officielle de la fonctionnalité afin de bien comprendre de quoi il retourne… Nous reviendrons donc sur le sujet.

À LIRE :
Home Assistant 2024.6 : les nouveautés du mois de juin

 

Fasciné par Alexa depuis le jour où je l'ai reçue en bêta test, je me suis peu à peu passionné pour le sujet, avant de me décider à aller plus loin en créant un site avec Jean-Christophe. Une activité qui me permet d'étancher ma soif de nouvelles technologies et de partager mes découvertes sur la plus sympathique des communautés : Les Alexiens.