Semaine prochaine à midi (mercredi 16 Octobre) j'animerai un webinaire sur comment l'IA peut vous aider à avoir plus d'impact en interne. Non pas en étant plus rapide, mais en utilisant l'IA pour créer de meilleures relations avec les gens autour de vous. Pas de balles d'argent, mais des pistes de réflexions et d'application pour vous permettre d'améliorer votre impact. En espérant vous voir, et n'hésitez pas à me laisser des questions en avance afin que je puisse les prendre en compte ! Inscriptions https://zoom.us/webinar/register/WN_zsp-L3zERmG2kVH6viTtqg#/registration
Alexis Gérôme
· Staff UX researcher
· il y a 1 mois
J'ai récemment découvert une discussion intéressante sur les outils d'IA en recherche UX. Le constat est frappant : parmi la multitude de solutions proposées, peu semblent réellement efficaces. Cependant, certaines se démarquent par leur utilité concrète. J'ai eu la même observation de mon côté. Et vous ?
(lire la suite)
Alexis Gérôme
· Staff UX researcher
· il y a 3 mois
L'IA a tendance à tout uniformiser, mais si on la retourne contre elle-même, elle peut nous aider à développer notre pensée critique. 6 façons d'utiliser l'IA pour booster sa créativité Voici quelques techniques que j'ai retenues pour exploiter l'IA de manière créative dans mon processus d'écriture : Laisser l'IA me poser des questions sur mon sujet pour clarifier mes idées avant d'écrire Marquer les phrases générées par l'IA pour ne pas les passer pour miennes Réécrire les phrases de l'IA à ma façon pour vraiment m'approprier le contenu Utiliser l'IA pour générer des versions de mon texte dans différents styles d'écriture et les comparer Demander à l'IA de lister les faiblesses potentielles de mon texte (mots longs, clichés, erreurs factuelles) pour m'améliorer Utiliser l'IA pour corriger les fautes d'orthographe et de ponctuation, tout en vérifiant chaque modification https://ia.net/topics/turning-the-tables-on-ai
(lire la suite)
Alexis Gérôme
· Staff UX researcher
· il y a 4 mois
Voici un cours intéressant que j'ai vu passer. Ce cours explore les applications de l'intelligence artificielle dans l'analyse qualitative des données. Les participants apprendront à utiliser des outils d'IA avancés pour extraire des informations pertinentes à partir de sources diverses comme des entretiens, des sondages ou des rapports. Ils développeront des compétences en text mining, en analyse sémantique et en visualisation des données qualitatives. https://instats.org/seminar/using-ai-for-qualitative-analysis-throug2
(lire la suite)
Alexis Gérôme
· Staff UX researcher
· il y a 4 mois
Je repartage car je suis en plein dedans. L'article explore les défis de créer des produits massivement utilisés qui utilisent des modèles LLMs. Les LLMs ne sont pas des bases de données et ne peuvent pas fournir des réponses précises et exactes. Ils sont des systèmes probabilistes qui peuvent donner des réponses incorrectes même si elles sont probables. Evans propose deux approches pour résoudre ce problème : Treat it as a science problem : les modèles vont s'améliorer, mais il est difficile de prévoir à quel point. Cela ressemble à la question de savoir si les LLMs produiront un intelligence artificielle générale (AGI). Treat it as a product problem : comment construire des produits utiles qui utilisent des modèles qui ne sont pas précis ? Il y a deux manières de s'attaquer à ce problème.
Domaine étroit : créer des produits qui utilisent des modèles pour des domaines spécifiques, avec des interfaces qui communiquent clairement ce que le modèle peut et ne peut pas faire.
Abstraction : créer des produits qui utilisent les LLMs de manière abstraite, sans que les utilisateurs ne réalisent qu'ils utilisent de l'IA. Cela ressemble à la façon dont les technologies précédentes ont été intégrées dans les produits. Lien article:https://www.ben-evans.com/benedictevans/2024/6/8/building-ai-products
(lire la suite)
Alexis Gérôme
· Staff UX researcher
· il y a 5 mois
Les LLMs, bien qu'extrêmement efficaces pour analyser et générer du texte, peuvent manquer de compréhension de l'expérience utilisateur réelle. La recherche ethnographique, qui implique de s'immerger dans l'environnement et les pratiques des utilisateurs, permet aux LLMs de mieux comprendre les besoins et les comportements des utilisateurs. Les auteurs soulignent que les LLMs sont souvent entraînés à partir de données collectées en ligne, ce qui peut ne pas refléter la réalité de l'expérience utilisateur. La recherche ethnographique, en revanche, permet de recueillir des informations directes et précises sur les utilisateurs, en observant et en interagissant avec eux. Cela permet aux LLMs de développer une compréhension plus profonde et plus précise des besoins des utilisateurs, ce qui peut améliorer significativement la qualité des produits et services. Lien article: https://www.stripepartners.com/viewpoint/eyes-on-the-ground-how-ethnographic-research-helps-llms-to-see/
(lire la suite)
Alexis Gérôme
· Staff UX researcher
· il y a 5 mois
L'article "Looking for AI Use Cases" de Benedict Evans explore les différentes applications potentielles de l'intelligence artificielle (IA) dans divers secteurs. Evans souligne que, bien que l'IA offre des opportunités énormes, il est crucial de trouver des cas d'utilisation pragmatiques où l'IA peut véritablement ajouter de la valeur. Il discute de l'importance d'identifier des problèmes spécifiques que l'IA peut résoudre efficacement, plutôt que d'adopter l'IA pour le simple fait de suivre une tendance. Pour plus de détails, vous pouvez lire l'article complet ici.
L'article explore comment l'intelligence artificielle (IA) transforme les domaines du design et de la recherche. Les fondateurs de Marvin, Prayag et Chirag Narula, discutent de l'intégration de l'IA dans le processus de conception UX, en soulignant l'importance des interfaces conviviales et des compétences en rédaction de prompts. Ils expliquent comment l'IA peut accélérer l'analyse des données, générer des idées et affiner les études. Ils insistent également sur la nécessité d'améliorer la transparence et la confiance dans les résultats produits par l'IA. Pour plus de détails, consultez l'article complet https://heymarvin.com/resources/changing-design/
Lancé en Californie - Outset à levé 4M en seed pour réduire le coût de réaliser de la recherche et accélérer la collecte d'insights. Après 2023, ce n'est pas rassurant - surtout quand je lis l'interview du founder dans Techcrunch, où c'est notre manque de vitesse qui est le problème dans le business. “Enterprise decision makers expect faster and faster results from insights teams,” Cannon told TechCrunch in an email interview. “Researchers are feeling that pressure every day, particularly after being hit hard by 2022 layoffs. The biggest risk to the industry today is that the increasing speed of decision making leads to a decreasing ability for insights functions to keep up. That’s why researchers need the tools to accelerate and amplify their work.” Vous pouvez tester la démo sur le site - L'AI vous fera un entretien sur vos motivations etc.. Aujourd'hui c'est encore loin du compte, pas smooth, l'AI ne prends pas en compte les silences, les pauses etc.. et la voix est horrible. Mais pour une startup qui n'a pas de moyens, ou qui veut réduire ses coûts ça peut être bon pour se dire que c'est juste assez bien. Et c'est là le but de l'IA. Ne pas forcément est 10x meilleur, mais être juste assez bien. https://outset.ai/
(lire la suite)
Alexis Gérôme
· Staff UX researcher
· il y a 11 mois
Je viens de découvrir cet outil qui à l'air super puissant. Vous mettez votre donnée brute, et l'outil trouve lui même les relations et fait les graphs automatiquement. Comme la version premium de Chatgpt mais avec les bonnes prompts probablement, et sans le va et vient constant. prix: 30$/mois ou un compte gratuit jusqu'a 100 lignes d'analyse. (idéal pour un petit survey). https://addmaple.com/ Liste features: https://addmaple.com/features Dès que j'ai l'occasion de tester je fais un REX dessus.
Cela fait depuis leur TED Talk de mai 2023 que je suis avec attention le projet AI Pin de Humane, co-créé par Imran Chaudhri (ex-designer chez Apple). La promesse de nouveaux modes d'interaction avec un nouveau device moins intrusif qu'un smartphone ou qu'un casque de VR/MR/AR était assez alléchante... Humane a présenté la première version du produit hier dans une vidéo de 10 min. Et malheureusement, même si la tech est plutôt impressionnante, on peut entrevoir pas mal de problèmes d'usage : Le device a l'air lourd : on voit bien la déformation du t-shirt lorsqu'Imran attache l'AI Pin donc je ne suis pas sûr que ça soit très confortable à porter toute la journée (et quid de la batterie ? elle doit certainement chauffer...) et encore moins en mouvement (ça sent le futur accessoire spécial pour faire du sport). Le système d'attache magnétique est top pour le côté discret et simple à utiliser mais on peut s'attendre à beaucoup de vols et probablement des chutes (dans un métro bondé par exemple) L'affichage par projection fait très futuriste mais ça n'a pas l'air très lisible et les mécanismes d'interaction n'ont pas l'air très pratiques ni efficaces. Même si on devrait être principalement sur des interactions très ponctuelles et courtes, ça n'a pas l'air confortable. Il faut vraiment pouvoir tester pour se rendre compte j'imagine et notamment voir si cela nécessite un apprentissage pour placer sa main au bon endroit ou si le système est super tolérant. Tous les modes d'interactions vocales avec feedback audio, ça rend toujours bien dans les démos mais en situation réelle, c'est tout de suite moins pratique (environnements bruyants, besoins de confidentialité) et il va falloir avoir des oreillettes la plupart du temps. Et pour interagir en vocal, il n'est pas précisé si on pourra chuchoter. Bref gros bémol La démo d'utilisation de l'IA pour améliorer un message à envoyer est assez risible (probablement car l'exemple choisi est trop simpliste) La traduction temps réel est top (même si il y a des apps sur smartphone qui font ça donc rien de révolutionnaire) mais la gestuelle semble un peu lourde. C'est bien sur un échange ultra court comme dans la présentation mais tapoter continuellement sur son device pendant une vraie conversation peut vite devenir lourd. Il aurait aussi été intéressant de voir le comportement sur une discussion entre 2 porteurs d'AI Pin. L'analyse visuelle des aliments présentés pour calculer la quantité de protéines, sucres, graisses, etc. est assez bluffante surtout pour le potentiel que ça pourrait apporter pour des personnes aveugles ou mal-voyantes (reconnaissance d'objets, détection d'obstacles, etc.). Mais il est dur en l'état de savoir à quel point il est facile de viser avec la caméra de l'AI Pin donc il y a un gros risque de frustration en usage réel. Je reste dubitatif également sur la prise de photos et de vidéos : la caméra n'étant pas au niveau des yeux, la promesse d'immortaliser exactement ce que l'on voit me semble fausse. Ils n'ont dit aucun mot sur la présence ou non d'un indicateur sur l'AI Pin pour alerter les personnes filmées qu'elles le sont mais visiblement ils ont bien prévu ça avec leur Trust Light. Et ça nous amène à une problématique présente dans tout système ultra-personnalisé comme ça : la gestion des données et leur sécurisation. Pour que l'AI Pin soit utile, il faut une confiance absolue en Humane et donner accès à un maximum de données personnelles. Et si le produit a l'air assez efficace dans les démos, qu'en sera-t-il avec des données réelles et surtout quel sera son comportement dans le temps quand les données vont commencer à s'accumuler ? Enfin, même si là on n'est plus sur une question d'usage, il y a le prix. Le device reste relativement cher mais surtout il nécessite un abonnement mensuel, donc ça va chiffrer assez vite. Bref, je vais rester sur la réserve et j'ai le sentiment qu'au final Humane est plus sur une fausse piste pour l'avenir du wearable... Et vous, qu'en pensez-vous ?
(lire la suite)
Thierry Raguin
· Design Strategist / ResearchOps / DesignOps / UXR / UXD
· il y a 1 an
"AI and UX Research" est une petite conférence d'une demi-journée organisée par Learners dans les locaux de Google à San Francisco. Elle était également accessible en remote et le replay est disponible sur YouTube (ça commence un peu après 20 minutes). Le son n'est malheureusement pas toujours terrible : au début et à la fin en particulier et les participants live n'ont pas de micro pour poser leurs questions donc on n'a que les réponses des intervenants. Mais à part ça, il y a de bons intervenants et bien qu'il n'y ait rien de fondamentalement nouveau dans les présentations, les contenus restent globalement intéressants (j'ai mis une petite étoile "⭐️" devant les interventions que j'ai trouvé plus intéressantes) . Petit récapitulatif de chaque intervention : ⭐️ Ricardo Prada, Director of AI User Experience @Google Bonne introduction au domaine avec notamment le parallèle entre les process d’innovation, de design thinking et de développement de l’IA. Il nous parle également des travaux de Fitts et donne quelques exemples où la recherche utilisateurs a abouti à des solutions intéressantes avec de l'IA. Basel Fakhoury, Co-Founder @User Interviews Petite pub pour User Interviews (sponsor) Sheana Ahlqvist, Quantitative User Experience Researcher @Instagram Exemple d'adaptation de méthode de recherche pour travailler sur des sujets liés à l'IA. Rien de fou pour être honnête. Henrik Mattsson, CEO @Lookback Petite pub de sponsor avec tout de même une présentation rapide d'une nouvelle feature qui a l'air sympa : Eureka (en beta actuellement). Peter Campana, Account Executive @Dovetail Petite pub pour Dovetail (sponsor) ⭐️ Lisa Nash, User Research Lead @Cruise Apports de la recherche utilisateurs dans l’ingénierie de l’IA sur le thème des voitures autonomes. Présentation un peu confuse pour présenter quelque chose d’assez simple au final mais Lisa met en avant des problématiques particulières liées à la conception de systèmes basés sur de l’IA. Ça reste une bonne présentation pour montrer l’importance de la recherche utilisateur dans ce domaine, notamment pour assurer un lien direct entre le processus d’ingénierie et le ressenti des utilisateurs et ne pas se contenter de travailler sur l’UI de l’IA mais la manière dont l’IA se comporte. ⭐️ Jessa Anderson, Manager of AI/ML UX Research @ServiceNow REX sur 4 ans d’UXR autour de l’IA chez ServiceNow. Jessa explique avec des exemples les principes pour augmenter la confiance des utilisateurs dans l’intégration de l’IA dans ServiceNow (contrôle, transparence, exploitabilité, garde-fous, etc.). On n’est pas tant sur la recherche utilisateur mais plus l’aboutissement de ses 4 ans d’expérience dans le domaine : des bonnes pratiques de conception de solutions utilisant de l’IA (pour de l’automatisation et des recommandations). Aaron Cannon, Co-Founder & CEO @Outset.ai Petite pub pour leur système d’interviewer artificiel : une interface conversationnelle nourrie avec un guide d'interview et envoyé aux participants pour remplacer les interviews et faire gagner du temps et des ressources... Mouais... Certainement plus pertinent que les utilisateurs artificiels de SyntheticUsers mais pas super convaincu de la valeur ajoutée : je n’ai pas testé mais j’imagine qu’on doit avoir des résultats vaguement supérieurs à une enquête en ligne avec questions ouvertes. ⭐️ Pete Fleming, Director of UX Research @Google Bonne discussion sur ce que l’IA peut apporter pour la recherche utilisateur et les perspectives. Ça aurait fait un bon récapitulatif de la conférence. ⭐️ Angie Peng, VP Strategy & Sales @Tremendous Petite pub de sponsor. Personnellement j’ai découvert cette boite qui permet de gérer la compensation des participants à la recherche partout dans le monde donc j’ai trouvé ça intéressant. Summer Kim, Research Leader & Anton Borzov, Founding Designer @StratMinds VC Plein de problèmes de son lors de cette intervention et ils passaient beaucoup de vidéos donc j'ai un peu lâché l'affaire pour être honnête. Ils montrent des exemples de startups qu'ils financent et accompagnent autour de l'IA et de l'UX.
(lire la suite)
Thierry Raguin
· Design Strategist / ResearchOps / DesignOps / UXR / UXD
· il y a 1 an
Maintenant que ChatGPT a développé ses capacités multimodales, on peut légitimement se poser cette question. Les chercheurs du Baymard Institute ont fait le test (sur 12 pages Web seulement mais je doute que les résultats soient très différents sur un échantillon plus important) et la réponse est sans appel : les résultats de ChatGPT sont très mauvais ❌ 👉 Tous les détails dans l'article du Baymard Institute
(lire la suite)
Thierry Raguin
· Design Strategist / ResearchOps / DesignOps / UXR / UXD
· il y a 1 an
Grâce aux progrès de l’Intelligence Artificielle ces dernières années, les outils de transcription automatiques se sont démocratisés et apportent aujourd’hui une aide non négligeable pour la recherche utilisateurs, en particulier lors d’interviews. Pour ne rien gâcher, ces outils sont souvent intégrés directement dans nos outils préférés : Dovetail, Zoom, etc. proposent notamment leur propre outil de transcription. Certains outils de transcription indépendants peuvent également se greffer facilement à d’autres outils standards, ce qui permet par exemple d’utiliser tel ou tel outil en fonction de la langue de nos interlocuteurs, la qualité des transcriptions étant souvent variable en fonction de la langue. Bref, la vie est belle, non ? 😎 Pour être honnête, oui et non… C’est effectivement super pratique et plutôt efficace (même s’il faut souvent ajuster quelques mots mal retranscrits à cause de l’accent ou parce qu’il s’agit de vocabulaire très spécifique ou d’acronymes) mais un gros point noir que tous ces outils ont en commun est qu’ils sont proposés en mode SaaS. Cela signifie que les données de nos interviews vont partir dans le cloud, très souvent dans un datacenter aux US et bien souvent on ne prend pas le temps de lire (et de comprendre) en détail la politique de confidentialité de ces SaaS. Qui exactement a accès à ces données ? Vont-elles être partagées avec des tiers ou même revendues ? Combien de temps vont-elles être conservées ? Où ? Et a-t-on bien communiqué ces informations à nos participants et obtenu leur consentement éclairé ? 🤔 Et même si on le fait dans les règles de l’art et en respectant scrupuleusement le RGPD, on peut avoir à travailler sur des sujets hautement confidentiels et aucune solution SaaS ne pourra convenir… Que faire alors ? ❓ On peut évidemment travailler “à l’ancienne” et retranscrire à la main chaque interview mais ça reste assez fastidieux… Heureusement, il y a des solutions hors ligne qui permettent une transcription de qualité 100% en local sur votre machine 👍 La solution que j’utilise depuis plusieurs mois s’appelle MacWhisper. Comme son nom l’indique, c’est une application pour Mac qui utilise le modèle Open Source Whisper d’OpenAI. L’interface de l’outil est perfectible et il manque la détection automatique des participants (il faut les indiquer à la main pour l’instant) mais la qualité de transcription est excellente en anglais et très bonne en français (au début il faut tester avec les différents modèles pour voir ce qui convient le mieux à chaque situation mais une fois qu’on est calé, c’est super et surtout très rapide). Sur les interviews pour lesquelles j’ai utilisé MacWhisper (plusieurs dizaines d’heures en anglais et en français, avec différents accents), j’ai trouvé les résultats bien meilleurs qu’avec Dovetail par exemple. N’hésitez pas à essayer la version gratuite (les modèles disponibles sont un peu moins bons qu’avec la version Pro) ou passez directement à la version Pro (26€ la licence perpétuelle*, c’est donné !) et faites vos retours en commentaire ! * La licence couvre toutes les mise à jour mineures. Pour les versions majeures, il faut reprendre une licence.
(lire la suite)
Thierry Raguin
· Design Strategist / ResearchOps / DesignOps / UXR / UXD
· il y a 1 an
Jane Davis, Principal UXR chez Great Question, présentent ses recherches sur l'utilisation et la perception de l'IA dans la recherche en mettant l'accent sur les défis, les opportunités et l'éthique. Ned Dwyer, PDG de Great Question parlent de certains des défis du point de vue du produit en tenant compte des informations personnelles, de l'éthique et de la faisabilité. Replay de l'event de septembre 2023 https://vimeo.com/861839354?share=copy Transcript https://docs.google.com/document/d/1ua4NfLMrxPUB0geEMbtTzN-23Hw1peNjD-CKtblC6BM/edit?usp=sharing
Des makers de automator, ils ont maintenant rajouté la puissance de modèle IA et de prompting directement dans figma. https://diagram.com ps: Racheté par Figma. Ca a été annoncé à la conférence.
Collection d'articles sur le sujet: https://uxdesign.cc/ai/home Pas forcément trouvable depuis leur home medium, mais intéressant pour explorer le sujet.
(lire la suite)
Alexis Gérôme
· Staff UX researcher
· il y a 2 ans
Un groupe pour poser vos questions et partager vos astuces, ressources, outils, et actualités sur l'utilisation des sciences cognitives dans le monde produit.
Un groupe pour poser vos questions et partager vos astuces, ressources, outils, et actualités sur la green UX qui comprend l'éco-conception et la sobriété numérique.
Groupe pour partager les offres d'emplois, et de missions freelance en France ou ailleurs ainsi que de discuter de nos choix de carrières.
Postage libre aux professionnels UX. Pas de recruteurs/RH.