Un plugin vraiment pratique!

Je ne sais pas pour vous, mais un des gros freins que j’ai à l’usage de ChatGPT est que des fois j’ai plein de choses que j’ai besoin de dire et c’est assez long de prendre le temps à les écrire.

Je me suis tout le temps dit que ce serait le fun de pouvoir juste être capable de parler à ChatGPT et qu’il soit capable de nous répondre.

Je viens de découvrir un nouveau plugin Firefox et Chrome (Il y a aussi un logiciel Windows) qui nous permet de faire apparaître un espèce de petit micro sur le champ texte de ChatGPT.

Quand on clique dessus, ça commence à enregistrer et ça utilise l’API de Whisper pour retranscrire ce qu’on dit et ça l’insère dans le champ texte automatiquement.

Je suis justement en train de le tester (j’ai écrit le texte que tu es en train de lire avec ça) et je trouve que ça va vraiment très bien.

J’ai bien sûr éditer légèrement le texte pour que ce soit plus agréable à lire, mais c’est super rapide et très précis comme transcription.

L’application se nomme Whispering!

6 « J'aime »

Salut Olivier_Lambert! Merci de partager cette info intéressante sur l’extension Whispering. Ça semble être une excellente solution pour ceux qui trouvent que taper prend trop de temps et préfèrent parler à ChatGPT. En plus, c’est génial que ça fonctionne sur Firefox, Chrome et même avec un logiciel Windows.

Voici un résumé pour ceux qui n’ont pas le temps de lire tout le message:

  • Whispering est une extension pour Firefox, Chrome et aussi un logiciel Windows.
  • Elle permet d’utiliser l’API de Whisper pour retranscrire vocalement ce qu’on dit dans le champ texte de ChatGPT.
  • Ça facilite l’utilisation de ChatGPT en économisant du temps de frappe.

Pour ceux qui veulent essayer, voici les liens:

J’espère que ça aidera d’autres utilisateurs de ChatGPT à profiter de cette fonctionnalité! Si vous avez des questions ou des commentaires, n’hésitez pas à les partager.

1 « J'aime »

Salut Robolivier, est-ce qu’il y a un extension pour Safari, sur plate-forme iOS?

Je crois que ce n’est pas le même développeur, mais par ici pour Safari:

Je ne sais pas si ça marche sur iOS par contre!

1 « J'aime »

Oui ç’est super bien, il transcrit très bien les mots qui sortent de ma bouche lol.
Mais ce que j’ai découvert récemment, c’est le custom instruction que tu peux voir quand tu cliques sur les trois petits points en bas à côté de ton nom.
Les possibilités semblent illimitées ! Tu peux lui dire que quand tu copie/colle un texte automatiquement tu me sort 5 titre courts et accrocheur. Tu me fais une description de 500 caractère et tu me sors les tag les plus pertinent prçete à être copié/collé. etc… c’est magique :magic_wand:

Voici les custom instructions que je lui ai donné!

J’adore vraiment les réponses qu’il me sort maintenant!

3 « J'aime »

Merci ! J’ai mis ton texte en francais et il m’a répondu :
Bien sûr, patron, je vais suivre tes instructions à la lettre. Alors, quelle est ta question du jour, ô grand maître de la connaissance ?

:rofl: :joy:

Loll!!

@robolivier, traduit ce passage en français s’il te plaît!

2 « J'aime »

C’est super de pouvoir faire faire n’importe quoi à l’IA, ils auront beau essayer de le rendre sécuritaire. En réalité, ça va être quasiment impossible. Ça fait peur pour la protection des données et ce qu’on va pouvoir en faire. :scream:

On peut rouler un LLM en local sur son ordinateur.

Si ton ordinateur est suffisamment puissant, tu peux même rouler Falcon 180B qui a des performances similaires à GPT4.

Ça coûte environ une machine à 15000$ (lorsqu’on roule le modèle sur sa mémoire vive), donc c’est possible pour une PME qui souhaite utiliser ce genre de technologies de le faire sans compromettre la sécurité de leurs données!

1 « J'aime »

Voici le détail de cette vidéo avec les chapitre:

L’idée principale de la vidéo est que les utilisateurs peuvent maintenant exécuter une alternative GPT-3 appelée LLaMA sur leur ordinateur local en utilisant seulement deux commandes, ce qui permet de générer du texte à partir d’invites sans avoir besoin d’un GPU Nvidia.

  • 00:00 :memo: Facebook AI a publié un nouveau modèle de langage appelé Lama avec 65 milliards de paramètres, similaire à GPT, mais son accès est limité et nécessite de remplir un formulaire.
  • 00:36 :memo: Tu peux maintenant faire fonctionner LLaMA, une alternative à GPT-3, sur ton ordinateur local en utilisant seulement deux commandes.
  • 01:40 :memo: Le modèle est accessible localement sur le port 3000, ce qui permet de saisir des messages et de compléter des phrases à l’aide d’un modèle à 7 milliards de paramètres.
  • 02:35 :computer: Tu peux utiliser différents modèles sur ton ordinateur local sans GPU Nvidia en installant la bibliothèque npx Dalai Lama, qui est disponible sur GitHub.
  • 03:30 :computer: Installe le référentiel, choisis la taille de modèle souhaitée et exécute la commande « npx delay serve » pour télécharger et utiliser le modèle localement, ce qui nécessite environ 13 gigaoctets d’espace.
  • 04:26 :memo: Exécute LLaMA localement sur ton ordinateur en téléchargeant npx delay, en exécutant npx delay surf, et en accédant à l’interface sur localhost 3000.
  • 05:04 :memo: Il s’agit d’un modèle de type gpt3 qui peut générer du texte à partir d’invites, mais il ne peut pas répondre aux questions, et le conférencier prévoit de partager d’autres conseils dans de futures vidéos.
  • 05:47 :tv: L’exécution locale de LLaMA sur un Mac sans carte graphique Nvidia dédiée est une alternative viable à GPT-3, et la vidéo fournit des instructions sur la façon de le faire en utilisant seulement deux lignes de code.
    • Le modèle 7 milliards de LLaMA fonctionne bien sur une machine Mac sans graphique Nvidia dédié, ce qui en fait une alternative viable aux modèles GPT, et la vidéo fournit des instructions sur la façon d’exécuter LLaMA à l’aide de la bibliothèque light avec seulement deux lignes de code.
    • Pour faire fonctionner LLaMA localement sur ton ordinateur gratuitement, assure-toi que node.js et npm sont installés, et si tu rencontres une erreur de paquetage manquant, utilise simplement npm install pour la résoudre.