Je viens de découvrir cet outil qui à l'air super puissant. Vous mettez votre donnée brute, et l'outil trouve lui même les relations et fait les graphs automatiquement. Comme la version premium de Chatgpt mais avec les bonnes prompts probablement, et sans le va et vient constant. prix: 30$/mois ou un compte gratuit jusqu'a 100 lignes d'analyse. (idéal pour un petit survey). https://addmaple.com/ Liste features: https://addmaple.com/features Dès que j'ai l'occasion de tester je fais un REX dessus.
Alexis Gérôme ·
Staff UX researcher · il y a 2 semaines
Cela fait depuis leur TED Talk de mai 2023 que je suis avec attention le projet AI Pin de Humane, co-créé par Imran Chaudhri (ex-designer chez Apple). La promesse de nouveaux modes d'interaction avec un nouveau device moins intrusif qu'un smartphone ou qu'un casque de VR/MR/AR était assez alléchante... Humane a présenté la première version du produit hier dans une vidéo de 10 min. Et malheureusement, même si la tech est plutôt impressionnante, on peut entrevoir pas mal de problèmes d'usage : Le device a l'air lourd : on voit bien la déformation du t-shirt lorsqu'Imran attache l'AI Pin donc je ne suis pas sûr que ça soit très confortable à porter toute la journée (et quid de la batterie ? elle doit certainement chauffer...) et encore moins en mouvement (ça sent le futur accessoire spécial pour faire du sport). Le système d'attache magnétique est top pour le côté discret et simple à utiliser mais on peut s'attendre à beaucoup de vols et probablement des chutes (dans un métro bondé par exemple) L'affichage par projection fait très futuriste mais ça n'a pas l'air très lisible et les mécanismes d'interaction n'ont pas l'air très pratiques ni efficaces. Même si on devrait être principalement sur des interactions très ponctuelles et courtes, ça n'a pas l'air confortable. Il faut vraiment pouvoir tester pour se rendre compte j'imagine et notamment voir si cela nécessite un apprentissage pour placer sa main au bon endroit ou si le système est super tolérant. Tous les modes d'interactions vocales avec feedback audio, ça rend toujours bien dans les démos mais en situation réelle, c'est tout de suite moins pratique (environnements bruyants, besoins de confidentialité) et il va falloir avoir des oreillettes la plupart du temps. Et pour interagir en vocal, il n'est pas précisé si on pourra chuchoter. Bref gros bémol La démo d'utilisation de l'IA pour améliorer un message à envoyer est assez risible (probablement car l'exemple choisi est trop simpliste) La traduction temps réel est top (même si il y a des apps sur smartphone qui font ça donc rien de révolutionnaire) mais la gestuelle semble un peu lourde. C'est bien sur un échange ultra court comme dans la présentation mais tapoter continuellement sur son device pendant une vraie conversation peut vite devenir lourd. Il aurait aussi été intéressant de voir le comportement sur une discussion entre 2 porteurs d'AI Pin. L'analyse visuelle des aliments présentés pour calculer la quantité de protéines, sucres, graisses, etc. est assez bluffante surtout pour le potentiel que ça pourrait apporter pour des personnes aveugles ou mal-voyantes (reconnaissance d'objets, détection d'obstacles, etc.). Mais il est dur en l'état de savoir à quel point il est facile de viser avec la caméra de l'AI Pin donc il y a un gros risque de frustration en usage réel. Je reste dubitatif également sur la prise de photos et de vidéos : la caméra n'étant pas au niveau des yeux, la promesse d'immortaliser exactement ce que l'on voit me semble fausse. Ils n'ont dit aucun mot sur la présence ou non d'un indicateur sur l'AI Pin pour alerter les personnes filmées qu'elles le sont mais visiblement ils ont bien prévu ça avec leur Trust Light. Et ça nous amène à une problématique présente dans tout système ultra-personnalisé comme ça : la gestion des données et leur sécurisation. Pour que l'AI Pin soit utile, il faut une confiance absolue en Humane et donner accès à un maximum de données personnelles. Et si le produit a l'air assez efficace dans les démos, qu'en sera-t-il avec des données réelles et surtout quel sera son comportement dans le temps quand les données vont commencer à s'accumuler ? Enfin, même si là on n'est plus sur une question d'usage, il y a le prix. Le device reste relativement cher mais surtout il nécessite un abonnement mensuel, donc ça va chiffrer assez vite. Bref, je vais rester sur la réserve et j'ai le sentiment qu'au final Humane est plus sur une fausse piste pour l'avenir du wearable... Et vous, qu'en pensez-vous ?
(lire la suite)
Thierry Raguin ·
Design Strategist / ResearchOps / DesignOps / UXR / UXD · il y a 1 mois
"AI and UX Research" est une petite conférence d'une demi-journée organisée par Learners dans les locaux de Google à San Francisco. Elle était également accessible en remote et le replay est disponible sur YouTube (ça commence un peu après 20 minutes). Le son n'est malheureusement pas toujours terrible : au début et à la fin en particulier et les participants live n'ont pas de micro pour poser leurs questions donc on n'a que les réponses des intervenants. Mais à part ça, il y a de bons intervenants et bien qu'il n'y ait rien de fondamentalement nouveau dans les présentations, les contenus restent globalement intéressants (j'ai mis une petite étoile "⭐️" devant les interventions que j'ai trouvé plus intéressantes) . Petit récapitulatif de chaque intervention : ⭐️ Ricardo Prada, Director of AI User Experience @Google Bonne introduction au domaine avec notamment le parallèle entre les process d’innovation, de design thinking et de développement de l’IA. Il nous parle également des travaux de Fitts et donne quelques exemples où la recherche utilisateurs a abouti à des solutions intéressantes avec de l'IA. Basel Fakhoury, Co-Founder @User Interviews Petite pub pour User Interviews (sponsor) Sheana Ahlqvist, Quantitative User Experience Researcher @Instagram Exemple d'adaptation de méthode de recherche pour travailler sur des sujets liés à l'IA. Rien de fou pour être honnête. Henrik Mattsson, CEO @Lookback Petite pub de sponsor avec tout de même une présentation rapide d'une nouvelle feature qui a l'air sympa : Eureka (en beta actuellement). Peter Campana, Account Executive @Dovetail Petite pub pour Dovetail (sponsor) ⭐️ Lisa Nash, User Research Lead @Cruise Apports de la recherche utilisateurs dans l’ingénierie de l’IA sur le thème des voitures autonomes. Présentation un peu confuse pour présenter quelque chose d’assez simple au final mais Lisa met en avant des problématiques particulières liées à la conception de systèmes basés sur de l’IA. Ça reste une bonne présentation pour montrer l’importance de la recherche utilisateur dans ce domaine, notamment pour assurer un lien direct entre le processus d’ingénierie et le ressenti des utilisateurs et ne pas se contenter de travailler sur l’UI de l’IA mais la manière dont l’IA se comporte. ⭐️ Jessa Anderson, Manager of AI/ML UX Research @ServiceNow REX sur 4 ans d’UXR autour de l’IA chez ServiceNow. Jessa explique avec des exemples les principes pour augmenter la confiance des utilisateurs dans l’intégration de l’IA dans ServiceNow (contrôle, transparence, exploitabilité, garde-fous, etc.). On n’est pas tant sur la recherche utilisateur mais plus l’aboutissement de ses 4 ans d’expérience dans le domaine : des bonnes pratiques de conception de solutions utilisant de l’IA (pour de l’automatisation et des recommandations). Aaron Cannon, Co-Founder & CEO @Outset.ai Petite pub pour leur système d’interviewer artificiel : une interface conversationnelle nourrie avec un guide d'interview et envoyé aux participants pour remplacer les interviews et faire gagner du temps et des ressources... Mouais... Certainement plus pertinent que les utilisateurs artificiels de SyntheticUsers mais pas super convaincu de la valeur ajoutée : je n’ai pas testé mais j’imagine qu’on doit avoir des résultats vaguement supérieurs à une enquête en ligne avec questions ouvertes. ⭐️ Pete Fleming, Director of UX Research @Google Bonne discussion sur ce que l’IA peut apporter pour la recherche utilisateur et les perspectives. Ça aurait fait un bon récapitulatif de la conférence. ⭐️ Angie Peng, VP Strategy & Sales @Tremendous Petite pub de sponsor. Personnellement j’ai découvert cette boite qui permet de gérer la compensation des participants à la recherche partout dans le monde donc j’ai trouvé ça intéressant. Summer Kim, Research Leader & Anton Borzov, Founding Designer @StratMinds VC Plein de problèmes de son lors de cette intervention et ils passaient beaucoup de vidéos donc j'ai un peu lâché l'affaire pour être honnête. Ils montrent des exemples de startups qu'ils financent et accompagnent autour de l'IA et de l'UX.
(lire la suite)
Thierry Raguin ·
Design Strategist / ResearchOps / DesignOps / UXR / UXD · il y a 1 mois
Maintenant que ChatGPT a développé ses capacités multimodales, on peut légitimement se poser cette question. Les chercheurs du Baymard Institute ont fait le test (sur 12 pages Web seulement mais je doute que les résultats soient très différents sur un échantillon plus important) et la réponse est sans appel : les résultats de ChatGPT sont très mauvais ❌ 👉 Tous les détails dans l'article du Baymard Institute
(lire la suite)
Thierry Raguin ·
Design Strategist / ResearchOps / DesignOps / UXR / UXD · il y a 1 mois
Grâce aux progrès de l’Intelligence Artificielle ces dernières années, les outils de transcription automatiques se sont démocratisés et apportent aujourd’hui une aide non négligeable pour la recherche utilisateurs, en particulier lors d’interviews. Pour ne rien gâcher, ces outils sont souvent intégrés directement dans nos outils préférés : Dovetail, Zoom, etc. proposent notamment leur propre outil de transcription. Certains outils de transcription indépendants peuvent également se greffer facilement à d’autres outils standards, ce qui permet par exemple d’utiliser tel ou tel outil en fonction de la langue de nos interlocuteurs, la qualité des transcriptions étant souvent variable en fonction de la langue. Bref, la vie est belle, non ? 😎 Pour être honnête, oui et non… C’est effectivement super pratique et plutôt efficace (même s’il faut souvent ajuster quelques mots mal retranscrits à cause de l’accent ou parce qu’il s’agit de vocabulaire très spécifique ou d’acronymes) mais un gros point noir que tous ces outils ont en commun est qu’ils sont proposés en mode SaaS. Cela signifie que les données de nos interviews vont partir dans le cloud, très souvent dans un datacenter aux US et bien souvent on ne prend pas le temps de lire (et de comprendre) en détail la politique de confidentialité de ces SaaS. Qui exactement a accès à ces données ? Vont-elles être partagées avec des tiers ou même revendues ? Combien de temps vont-elles être conservées ? Où ? Et a-t-on bien communiqué ces informations à nos participants et obtenu leur consentement éclairé ? 🤔 Et même si on le fait dans les règles de l’art et en respectant scrupuleusement le RGPD, on peut avoir à travailler sur des sujets hautement confidentiels et aucune solution SaaS ne pourra convenir… Que faire alors ? ❓ On peut évidemment travailler “à l’ancienne” et retranscrire à la main chaque interview mais ça reste assez fastidieux… Heureusement, il y a des solutions hors ligne qui permettent une transcription de qualité 100% en local sur votre machine 👍 La solution que j’utilise depuis plusieurs mois s’appelle MacWhisper. Comme son nom l’indique, c’est une application pour Mac qui utilise le modèle Open Source Whisper d’OpenAI. L’interface de l’outil est perfectible et il manque la détection automatique des participants (il faut les indiquer à la main pour l’instant) mais la qualité de transcription est excellente en anglais et très bonne en français (au début il faut tester avec les différents modèles pour voir ce qui convient le mieux à chaque situation mais une fois qu’on est calé, c’est super et surtout très rapide). Sur les interviews pour lesquelles j’ai utilisé MacWhisper (plusieurs dizaines d’heures en anglais et en français, avec différents accents), j’ai trouvé les résultats bien meilleurs qu’avec Dovetail par exemple. N’hésitez pas à essayer la version gratuite (les modèles disponibles sont un peu moins bons qu’avec la version Pro) ou passez directement à la version Pro (26€ la licence perpétuelle*, c’est donné !) et faites vos retours en commentaire ! * La licence couvre toutes les mise à jour mineures. Pour les versions majeures, il faut reprendre une licence.
(lire la suite)
Thierry Raguin ·
Design Strategist / ResearchOps / DesignOps / UXR / UXD · il y a 2 mois
Jane Davis, Principal UXR chez Great Question, présentent ses recherches sur l'utilisation et la perception de l'IA dans la recherche en mettant l'accent sur les défis, les opportunités et l'éthique. Ned Dwyer, PDG de Great Question parlent de certains des défis du point de vue du produit en tenant compte des informations personnelles, de l'éthique et de la faisabilité. Replay de l'event de septembre 2023 https://vimeo.com/861839354?share=copy Transcript https://docs.google.com/document/d/1ua4NfLMrxPUB0geEMbtTzN-23Hw1peNjD-CKtblC6BM/edit?usp=sharing
Des makers de automator, ils ont maintenant rajouté la puissance de modèle IA et de prompting directement dans figma. https://diagram.com ps: Racheté par Figma. Ca a été annoncé à la conférence.
Collection d'articles sur le sujet: https://uxdesign.cc/ai/home Pas forcément trouvable depuis leur home medium, mais intéressant pour explorer le sujet.
Merci du share - en effet c'est intéressant. En ce moment il y a une renaissance du côté hardware à cause de l'AI. C'est malheureusement hyper dystopique entre black mirror et d'autres films de SF.
My 2 cent c'est que ces entreprises lèvent avec un but B2C en tête, mais que les applications actuelles seront peut-être plus tournées B2B car c'est un usage restreint et moins contraignant que la vie de tous les jours (vie privée etc..)
Je vais reposter des articles sur la renaissance du hardware - c'est un peu ce que j'ai lu récemment - le dernier article de Stratechery en parle aussi: https://stratechery.com/
Alexis Gérôme · Staff UX researcher · il y a 3 semaines
@Thierry Raguin Haha en effet, une vraie machine de guerre. Moi avec mes 8 GO de RAM pour faire une transcription de 1h vidéo ça met plusieurs heures. ça va que c'est pas professionnel. Donc je vais essayer sur Windows et passer par le modèle directement.
@Alexis Gérôme alors j'ai effectivement une machine de guerre qui fait que ça fonctionne hyper bien (MBP M1 Max avec 64 Go de RAM 💪).
Je fais les transcriptions une à une mais ça n'est pas gênant car je le fais tout le temps dans la foulée de l'entretien donc je n'ai jamais plus d'un enregistrement à passer à la fois.
Thierry Raguin · Design Strategist / ResearchOps / DesignOps / UXR / UXD · il y a 1 mois
@Alexis Gérôme j'ai envie de dire que ça dépend du contenu que tu as à transcrire mais vu que je suis rarement pressé par le temps (je laisse la transcription se faire en arrière plan pendant que je fais autre chose), j'ai tendance à prendre le plus gros modèle par défaut pour avoir de meilleurs résultats. Et même en cas de rush, le modèle Large reste assez rapide pour ne pas être rédhibitoire.
Thierry Raguin · Design Strategist / ResearchOps / DesignOps / UXR / UXD · il y a 2 mois
Un groupe pour poser vos questions et partager vos astuces, ressources, outils, et actualités sur l'utilisation des sciences cognitives dans le monde produit.
Un groupe pour poser vos questions et partager vos astuces, ressources, outils, et actualités sur la green UX qui comprend l'éco-conception et la sobriété numérique.
Groupe pour partager les offres d'emplois, et de missions freelance en France ou ailleurs ainsi que de discuter de nos choix de carrières.
Postage libre aux professionnels UX. Pas de recruteurs/RH.