Nouveau mois, nouvelle mise à jour de Home Assistant ! Et ce mois ci est très clairement marqué par l'intelligence artificielle, permettant de piloter toute sa maison. Non seulement avec Assist, l'assistant intégré de Home Assistant, mais également via OpenAI (ChatGPT) et Google AI ! Les nouveautés ne s'arrêtent toutefois pas à cela: nous avons également des commandes de lecteur multimédia super simples, d'autres améliorations des tables de données, des entités de balises, des sections de plans pliables, et bien d'autres choses encore !
Assistants vocaux et IA
Le cerveau de l'assistant vocal est appelé “agent conversationnel”. Il est chargé de comprendre l'intention derrière la commande vocale, d'effectuer une action et de générer une réponse.
Depuis le début, Home Assistant a permis de remplacer son agent de conversation par un agent basé sur les LLM. Mais jusqu'ici, ces deux mondes (l'agent conversationnel Home Assistant contrôlant votre maison et les agents conversationnels basés sur LLM) ne se chevauchaient pas: il était impossible de contrôler votre maison à partir d'un agent conversationnel basé sur LLM. Il fallait passer soit par l'un, soit par l'autre, ce qui était contraignant. Et bien c'est maintenant résolu ! Lors de la configuration d'un agent conversationnel basé sur LLM, vous pouvez décider de laisser votre agent conversationnel contrôler votre maison d'une simple pression sur un bouton.
Grâce à ce nouveau paramètre, les agents conversationnels basés sur LLM peuvent exploiter notre système d'intention, qui alimente l'assistant. Ils ont également accès à toutes les entités exposées à l'assistant. Ainsi, vous contrôlez ce à quoi vos agents ont accès.
L'utilisation du système d'intention est très intéressante car elle fonctionne dès le départ. Les agents conversationnels basés sur LLM peuvent faire tout ce qu'Assist peut faire. L'avantage supplémentaire est qu'ils sont capables de raisonner au-delà des mots, ce dont Assist était incapable.
Par exemple, si vous avez une lumière appelée « Lampe Webcam » exposée dans votre zone « bureau », vous pouvez donner des commandes directes telles que :
Allumer la lumière de la webcam du bureau.
Cela fonctionnait également avec Assist auparavant, mais vous pouvez également donner des commandes plus complexes, telles que :
Je vais à une réunion, peux-tu t'assurer que les gens voient mon visage ?
L'agent déterminera l'intention derrière les mots et appellera la bonne intention sur les entités exposées correspondantes.
Cette version est disponible pour les intégrations OpenAI et Google AI. Pour faciliter la prise en main des LLM, les développeurs les ont mis à jour avec des paramètres de modèle recommandés qui établissent un bon équilibre entre la précision, la vitesse et le coût.
Les paramètres recommandés sont tout aussi performants pour les tâches liées à l'assistant vocal. Google est 14 fois moins cher qu'OpenAI, mais OpenAI répond mieux aux questions non liées à la maison intelligente.
Les LLM locaux sont également pris en charge via l'intégration d'Ollama depuis Home Assistant 2024.4. Ollama et les principaux modèles LLM open source ne sont pas réglés pour l'appel d'outil, donc cela doit être construit à partir de zéro.
Commandes simplifiées du lecteur multimédia
Cette mise à jour introduit de nouvelles intentions pour les lecteurs multimédias qui vous permettent d'en faire plus en en disant moins. Vous pouvez prononcer les commandes vocales suivantes pour contrôler les lecteurs multimédias situés dans la même zone que votre appareil Assist :
- Pause
- Reprendre
- Suivant
- Régler le volume à 50 %
Jusqu'à présent, Home Assistant ne proposait que des phrases ciblant une entité spécifique par son nom. En raison de cette limitation, ces intentions n'étaient pas des plus conviviales, car les phrases étaient trop longues à dire : « Passer à la chanson suivante sur le téléviseur du salon».
Les développeurs ont donc ajouté deux fonctions pour obtenir les phrases les plus courtes possibles. La prise en compte du contexte permet à l'assistant vocal de connaître les appareils se trouvant dans la même zone que le satellite. Ils ont également créé une stratégie de correspondance intelligente qui permet de trouver le bon lecteur multimédia à cibler.
Par exemple, si vous dites « pause », l'assistant vocal ciblera automatiquement le lecteur multimédia en cours de lecture. Il faut juste s'assurer que votre assistant vocal est assigné à une zone où se trouve un lecteur multimédia, et vous pouvez commencer ! Les commandes deviennent ici beaucoup plus naturelles.
Personnalisation des tableaux de bord
La personnalisation et l'organisation des tableaux de bord se poursuit encore un peu après les dernières mises à jour. Ce mois-ci, une nouvelle fonctionnalité permet d'afficher certaines parties du tableau de bord section sous condition. Cette nouvelle fonctionnalité vous permet de masquer ou d'afficher une section en fonction de certaines conditions que vous décidez.
Par exemple, vous pouvez souhaiter n'afficher qu'une section sur mobile lorsque vous êtes à la maison. Ou encore, n'afficher l'interrupteur permettant d'éteindre les lumières de la cuisine que lorsque celles-ci sont allumées. Peut-être avez-vous une section qui ne concerne que vous ou votre partenaire et que vous voulez cacher aux enfants ?
Cette même fonctionnalité de visibilité est maintenant disponible pour les cartes !
Vous pouvez désormais masquer ou afficher une carte en fonction de certaines conditions. Cela vous permet de créer des tableaux de bord plus dynamiques qui s'adaptent à vos besoins. La grande différence est que vous n'avez pas besoin d'une carte de conditions pour utiliser cette fonctionnalité. Elle est disponible directement dans la configuration de la carte, dans l'onglet Visibilité !
Autre nouveauté sur l'interface de tableau de bord : la possibilité de définir une image d'arrière-plan ! Auparavant, cela n'était possible qu'en éditant YAML, mais maintenant vous pouvez le faire directement depuis l'interface utilisateur. Mieux encore, vous pouvez télécharger une image directement depuis votre ordinateur ou fournir l'URL d'une image !
Amélioration des tableaux de données
Il est maintenant possible de réduire et développer tous les groupes à la fois.
En outre, les filtres que vous avez définis dans les tableaux de données sont désormais enregistrés dans votre session de navigation. Cela signifie que si vous quittez la page et que vous y revenez, vos filtres seront toujours présents. Chaque onglet ou fenêtre du navigateur a sa propre session, ce qui signifie que vous pouvez avoir différents filtres dans différents onglets ou fenêtres qui sont mémorisés pour cet onglet ou cette fenêtre spécifique.
Intégrations
De nouvelles intégrations font leur apparition:
- Airgradient: Fournit des données sur la qualité de l'air à partir de votre appareil Airgradient local.
- APsystems: Surveille vos micro-onduleurs APsystems EZ1, comme celui utilisé par exemple sur la station solaire Solaris Go !
- Azure data explorer: Transférer les événements de Home Assistant vers Azure Data Explorer pour analyse.
- IMGW-PIB: Les données hydrologiques de l'Institut de météorologie et de gestion de l'eau – Institut national de recherche fournissent des informations sur les rivières et les réservoirs d'eau en Pologne.
- Accélération intelligente du stockage: La bibliothèque ISAL (Intelligent Storage Acceleration Library) est utilisée pour accélérer le frontend de Home Assistant. Elle est automatiquement activée.
- Monzo: Connectez votre compte bancaire Monzo à Home Assistant et obtenez des informations sur le solde de votre compte.
Matter passe à la version 1.3
Comme nous l'avons vu récemment, Matter est passé à la version 1.3. Et bien Home Assistant s'est déjà adapté à cette mise à jour, qui améliore la fiabilité et la compatibilité des appareils Matter.
Cette version améliore et étend également la prise en charge des appareils. Les purificateurs d'air et les climatiseurs individuels basés sur Matter sont désormais pris en charge, les thermostats et autres appareils climatiques ont eu d'importantes corrections autour des points de consigne.
Quelques appareils Matter ont ce qu'on appelle des « clusters personnalisés ». Les clusters personnalisés sont une façon standardisée pour les fabricants d'inclure des données non standardisées. Home Assistant veut prendre en charge les clusters personnalisés, mais les développeurs doivent ajouter la prise en charge de chacun d'entre eux individuellement.
Cette version permet à Home Assistant d'être notifié lorsque les données d'une grappe personnalisée changent (au lieu de les demander à intervalles réguliers). Cela réduira le trafic réseau et améliorera les performances de votre réseau Matter, en particulier sur les grands réseaux Thread.
Les tags deviennent des entités !
Home Assistant supporte les tags depuis longtemps. La fonction tags permettait d'utiliser des tags NFC ou des QR codes avec Home Assistant, par exemple, pour déclencher des automatismes.
Cependant, les tags n'étaient pas des entités réelles et n'étaient donc pas toujours logiques à utiliser. Avec cette version, les tags sont désormais des entités normales et peuvent être utilisés dans les automatismes, les scripts, les modèles et même être ajoutés à vos tableaux de bord !
Vous pouvez retrouver l'intégralité des nouveautés dans le billet officiel.
Si vous préférez découvrir les nouveautés rapidement en vidéo, je vous invite également suivre Howmation, qui a prévu une petite vidéo de debrief pour chaque mise à jour à venir:
Voilà ! Amusez vous bien avec toutes ces nouveautés ! Moi j'y retourne ;-)
Merci de rester courtois: un bonjour et un merci ne coutent rien ! Nous sommes là pour échanger de façon constructive. Les trolls seront supprimés.