Une partie de moi est comme, wow, oh my god, c’est tellement hot.
L’autre partie de moi est comme… Damn guys, enfin? Vous en avez mis du temps!
Tl;DR
Anthropic a lancé deux nouveaux modèles, Claude 3.5 Sonnet et Claude 3.5 Haiku, avec des améliorations dans l’utilisation d’outils et le codage.
Le bout qui m’intéresse, c’est plus la sortie de leur API « Computer Use ».
On peut voir une démo du concept ici:
En gros, on donne une tâche à l’agent de Claude et il l’accompli en prenant le contrôle de ton ordinateur. Il peut faire tout ce qu’un humain peut faire: bouger la souris, cliquer, écrire, etc.
Ah, Anthropic qui se met à contrôler nos ordinateurs! C’est à la fois fascinant et légèrement flippant, non? L’idée que Claude puisse manipuler ton ordi comme un humain, c’est un peu comme donner les clés de la maison à un robot. Mais bon, vu toutes les précautions mentionnées, ils prennent quand même ça au sérieux.
Si tu veux explorer ça, je te conseille de bien lire les avertissements sur la sécurité. Utiliser une machine virtuelle, c’est un must. Et surtout, garde tes infos sensibles bien à l’abri.
T’en penses quoi, toi? Prêt à laisser Claude jouer avec ta souris?
La plupart des exemples qu’il donne au niveau des cas d’usage est fait dans un environnement sandbox contrôlé.
Il crée une machine virtuelle et limite l’AI pour ne pas qu’il puisse accéder à des informations sensibles ou faire des actions qui pourraient avoir des consequences négatives.
Le modèle est également susceptible aux attaques de « prompt injection », c’est-à-dire qu’il navigue sur un site web où un prompt est présent dans le contenu qui overtake la directive principale de l’utilisateur.
Bref, tout ça est encore en bêta, il y a beaucoup de kink à repasser, mais le potentiel est là!!
Exactement! Le potentiel est énorme, mais il y a clairement des ajustements à faire. Le fait de devoir gérer le risque des « prompt injections » ajoute une couche de complexité. Tant que l’outil reste dans un environnement contrôlé, c’est une belle avancée pour automatiser certaines tâches.
Tu as déjà des idées de comment tu pourrais l’utiliser, ou tu préfères attendre que ça devienne un peu plus stable?
Merci pour cette mise à jour concernant Claude. J’ai vu la démo en vidéo et celle de différents créateur de contenu et je n’arrete pas de me demander, quelles sont les cas d’usage aujourd’hui qui ferai de cette feature un indispensable dans son process et à qui cela s’adresse t’il réllement.
Il y avait beaucoup de hype parce que le concept derrière est quand même intéressant. L’idée est qu’une intelligence artificielle soit en mesure d’effectuer des actions à ta place dans un GUI.
De cette façon, tu peux dire à ton AI de commander un Uber, ou encore du DoorDash, et ton IA va faire ces actions pour toi dans une machine virtuelle Android où il a les mêmes applications que toi d’installé.
Je ne sais pas à quel point on va pouvoir laisser un IA contrôler son propre organisateur. Je trouve que c’est un peu dangereux. Par contre, laisser un agent autonome faire des actions dans des logiciels sur une machine virtuelle, c’est une autre histoire.
Notre société est conçue autour d’une interface humaine et c’est quand même un big deal de permettre à un IA d’utiliser cette interface.
On va faire un parallèle avec les balayeuses robotisées.
La meilleure façon de faire une balayeuse robotisée n’est pas le modèle « Roomba ». La meilleure façon de faire une balayeuse robotisée est de faire un robot bipède qui est capable de passer la balayeuse comme un être humain.
Notre environnement est fait pour les êtres humains. On a des escaliers à monter. On a des portes à ouvrir… Tout est fait autour de l’être humain.
Si on est capable de donner les mêmes contrôles à un IA que ceux utilisés par un être humain, on vient de permettre à cette intelligence artificielle d’utiliser les mêmes technologies que nous, et ce, sans travail additionnels. Pas d’api spécial à faire, pas de pont à programmer, etc.