<?xml version="1.0" encoding="UTF-8"?><!-- generator="podbean/5.5" -->
<rss version="2.0"
     xmlns:content="http://purl.org/rss/1.0/modules/content/"
     xmlns:wfw="http://wellformedweb.org/CommentAPI/"
     xmlns:dc="http://purl.org/dc/elements/1.1/"
     xmlns:atom="http://www.w3.org/2005/Atom"
     xmlns:itunes="http://www.itunes.com/dtds/podcast-1.0.dtd"
     xmlns:googleplay="http://www.google.com/schemas/play-podcasts/1.0"
     xmlns:spotify="http://www.spotify.com/ns/rss"
     xmlns:podcast="https://podcastindex.org/namespace/1.0"
    xmlns:media="http://search.yahoo.com/mrss/">

<channel>
    <title>Le balado du centre Axel</title>
    <atom:link href="https://feed.podbean.com/centreaxel/feed.xml" rel="self" type="application/rss+xml"/>
    <link>https://centreaxel.podbean.com</link>
    <description><![CDATA[<p><span>Le Réflexe Humain est né d'une conviction simple : peu importe jusqu'où va la technologie, l'intervention en santé mentale commence toujours par une rencontre. Des chercheurs, cliniciens, entrepreneurs et patients partenaires se réunissent pour parler vrai sur l'intelligence artificielle, la santé numérique et ce que tout ça change vraiment pour les humains qui en ont besoin. Un psychiatre, une bioéthicienne, un pionnier de la téléthérapie, une psychologue-entrepreneure et un patient partenaire qui ose dire ce que personne ne dit : l'IA me fait peur. Pas un balado qui célèbre la technologie. Pas un balado qui la condamne. Un espace pour penser, questionner, et garder l'humain au centre d'une révolution qui va trop vite pour qu'on la laisse avancer sans nous. La vraie question : est-ce qu'on va utiliser ces outils ou est-ce qu'ils vont nous utiliser? Abonne-toi. Et prends le temps d'écouter.</span></p>]]></description>
    <pubDate>Mon, 11 May 2026 12:06:00 -0300</pubDate>
    <generator>https://podbean.com/?v=5.5</generator>
    <language>en</language>
        <copyright>Copyright 2026 All rights reserved.</copyright>
    <category>Health &amp; Fitness:Mental Health</category>
    <ttl>1440</ttl>
    <itunes:type>episodic</itunes:type>
          <itunes:summary></itunes:summary>
        <itunes:author>centreaxel</itunes:author>
	<itunes:category text="Health &amp; Fitness">
		<itunes:category text="Mental Health" />
	</itunes:category>
    <itunes:owner>
        <itunes:name>centreaxel</itunes:name>
            </itunes:owner>
    	<itunes:block>No</itunes:block>
	<itunes:explicit>false</itunes:explicit>
    <itunes:image href="https://pbcdn1.podbean.com/imglogo/image-logo/22323629/Axwlpodbean.png" />
    <image>
        <url>https://pbcdn1.podbean.com/imglogo/image-logo/22323629/Axwlpodbean.png</url>
        <title>Le balado du centre Axel</title>
        <link>https://centreaxel.podbean.com</link>
        <width>144</width>
        <height>144</height>
    </image>
    <item>
        <title>Ép.8. 6 experts en santé mentale numérique autour d'une table — ce qu'ils ont vraiment retenu</title>
        <itunes:title>Ép.8. 6 experts en santé mentale numérique autour d'une table — ce qu'ils ont vraiment retenu</itunes:title>
        <link>https://centreaxel.podbean.com/e/ep8-6-experts-en-sante-mentale-numerique-autour-dune-table-%e2%80%94-ce-quils-ont-vraiment-retenu/</link>
                    <comments>https://centreaxel.podbean.com/e/ep8-6-experts-en-sante-mentale-numerique-autour-dune-table-%e2%80%94-ce-quils-ont-vraiment-retenu/#comments</comments>        <pubDate>Mon, 11 May 2026 12:06:00 -0300</pubDate>
        <guid isPermaLink="false">centreaxel.podbean.com/9b5483fb-50a5-39f3-91dd-9b4374fb9204</guid>
                                    <description><![CDATA[<p>Et si la meilleure chose qu'on puisse faire face à la révolution numérique, c'était de s'arrêter? Pour clore la série, tous les invités du Réflexe Humain se retrouvent — Stéphane Bouchard, Pierrick Plusquellec, Hazar Haidar, Jessica Ménard, Alexandre Hudon et Vincent Montpetit pour une conversation à cœur ouvert sur ce que cette aventure leur a appris.</p>
<p>Chacun avec son bagage, sa casquette, son regard. Et pourtant, le même message qui converge : garder l'humain au centre, ralentir pour décider ensemble, et ne pas laisser la technologie nous faire oublier ce que c'est qu'être humain. Pas de théorie. Juste des vraies personnes, des vraies réflexions, et une belle leçon d'humilité collective.</p>
<p>Ce qu'on explore ensemble :</p>
<p>Le réflexe humain de chaque invité face à la santé numérique</p>
<p>Pourquoi les guichets automatiques sont la meilleure métaphore de l'IA en santé mentale</p>
<p>"Ralentir pour décider ensemble" — la phrase de Yoshua Bengio qui a tout changé</p>
<p>Ce que ça fait, comme patient partenaire, d'avoir peur de l'intelligence artificielle</p>
<p>Ce que chaque expert retient de mois de co-construction</p>
<p>Pourquoi l'interdisciplinarité n'est pas un luxe, c'est une nécessité</p>
]]></description>
                                                            <content:encoded><![CDATA[<p>Et si la meilleure chose qu'on puisse faire face à la révolution numérique, c'était de s'arrêter? Pour clore la série, tous les invités du Réflexe Humain se retrouvent — Stéphane Bouchard, Pierrick Plusquellec, Hazar Haidar, Jessica Ménard, Alexandre Hudon et Vincent Montpetit pour une conversation à cœur ouvert sur ce que cette aventure leur a appris.</p>
<p>Chacun avec son bagage, sa casquette, son regard. Et pourtant, le même message qui converge : garder l'humain au centre, ralentir pour décider ensemble, et ne pas laisser la technologie nous faire oublier ce que c'est qu'être humain. Pas de théorie. Juste des vraies personnes, des vraies réflexions, et une belle leçon d'humilité collective.</p>
<p>Ce qu'on explore ensemble :</p>
<p>Le réflexe humain de chaque invité face à la santé numérique</p>
<p>Pourquoi les guichets automatiques sont la meilleure métaphore de l'IA en santé mentale</p>
<p>"Ralentir pour décider ensemble" — la phrase de Yoshua Bengio qui a tout changé</p>
<p>Ce que ça fait, comme patient partenaire, d'avoir peur de l'intelligence artificielle</p>
<p>Ce que chaque expert retient de mois de co-construction</p>
<p>Pourquoi l'interdisciplinarité n'est pas un luxe, c'est une nécessité</p>
]]></content:encoded>
                                    
        <enclosure url="https://mcdn.podbean.com/mf/web/92h8qr9a8gwxzgvy/Reflexe_Humain_-_E_pisode8-Ensemble6rrpf.mp3" length="21035935" type="audio/mpeg"/>
        <itunes:summary><![CDATA[Et si la meilleure chose qu'on puisse faire face à la révolution numérique, c'était de s'arrêter? Pour clore la série, tous les invités du Réflexe Humain se retrouvent — Stéphane Bouchard, Pierrick Plusquellec, Hazar Haidar, Jessica Ménard, Alexandre Hudon et Vincent Montpetit pour une conversation à cœur ouvert sur ce que cette aventure leur a appris.
Chacun avec son bagage, sa casquette, son regard. Et pourtant, le même message qui converge : garder l'humain au centre, ralentir pour décider ensemble, et ne pas laisser la technologie nous faire oublier ce que c'est qu'être humain. Pas de théorie. Juste des vraies personnes, des vraies réflexions, et une belle leçon d'humilité collective.
Ce qu'on explore ensemble :
Le réflexe humain de chaque invité face à la santé numérique
Pourquoi les guichets automatiques sont la meilleure métaphore de l'IA en santé mentale
"Ralentir pour décider ensemble" — la phrase de Yoshua Bengio qui a tout changé
Ce que ça fait, comme patient partenaire, d'avoir peur de l'intelligence artificielle
Ce que chaque expert retient de mois de co-construction
Pourquoi l'interdisciplinarité n'est pas un luxe, c'est une nécessité]]></itunes:summary>
        <itunes:author>centreaxel</itunes:author>
        <itunes:explicit>false</itunes:explicit>
        <itunes:block>No</itunes:block>
        <itunes:duration>1314</itunes:duration>
                <itunes:episode>8</itunes:episode>
        <itunes:episodeType>full</itunes:episodeType>
            </item>
    <item>
        <title>Ép7.Vos données psy dans le nuage : ce que personne ne vous dit vraiment</title>
        <itunes:title>Ép7.Vos données psy dans le nuage : ce que personne ne vous dit vraiment</itunes:title>
        <link>https://centreaxel.podbean.com/e/ep7vos-donnees-psy-dans-le-nuage-ce-que-personne-ne-vous-dit-vraiment/</link>
                    <comments>https://centreaxel.podbean.com/e/ep7vos-donnees-psy-dans-le-nuage-ce-que-personne-ne-vous-dit-vraiment/#comments</comments>        <pubDate>Mon, 11 May 2026 12:05:00 -0300</pubDate>
        <guid isPermaLink="false">centreaxel.podbean.com/b5296ee5-42a2-33ff-b0a1-f046dee38324</guid>
                                    <description><![CDATA[<p>Et si la vraie menace des applis de santé mentale, c'était pas ce qu'on pense?Vincent Montpetit, patient partenaire et doctorant en psychologie, donne son avis sans filtre sur la santé mentale numérique — non pas comme chercheur ou clinicien, mais comme personne directement concernée.</p>
<p>Il parle de vertige des données, de consentement éclairé, et de ce que ça fait vraiment d'être "patient partenaire" dans un projet numérique.</p>
<p>Parce que quand c'est gratuit, quelqu'un finit toujours par payer.</p>
<p>Ce qu'on explore ensemble :</p>
<p>Pourquoi il hésite toujours avant de confier ses données à une appli</p>
<p>Ce que cachent vraiment les petits caractères des formulaires de consentement</p>
<p>Le concept d'intervenant augmenté : opportunité ou dérapage?</p>
<p>La formule R² : réfléchir et se retenir avant d'adopter une solution numérique</p>
<p>Pourquoi les patients partenaires doivent être au cœur des décisions — pas juste comme plantes vertes</p>
]]></description>
                                                            <content:encoded><![CDATA[<p>Et si la vraie menace des applis de santé mentale, c'était pas ce qu'on pense?Vincent Montpetit, patient partenaire et doctorant en psychologie, donne son avis sans filtre sur la santé mentale numérique — non pas comme chercheur ou clinicien, mais comme personne directement concernée.</p>
<p>Il parle de vertige des données, de consentement éclairé, et de ce que ça fait vraiment d'être "patient partenaire" dans un projet numérique.</p>
<p>Parce que quand c'est gratuit, quelqu'un finit toujours par payer.</p>
<p>Ce qu'on explore ensemble :</p>
<p>Pourquoi il hésite toujours avant de confier ses données à une appli</p>
<p>Ce que cachent vraiment les petits caractères des formulaires de consentement</p>
<p>Le concept d'intervenant augmenté : opportunité ou dérapage?</p>
<p>La formule R² : réfléchir et se retenir avant d'adopter une solution numérique</p>
<p>Pourquoi les patients partenaires doivent être au cœur des décisions — pas juste comme plantes vertes</p>
]]></content:encoded>
                                    
        <enclosure url="https://mcdn.podbean.com/mf/web/5hcxvccc969fftqi/Reflexe_Humain_-_E_pisode7-Vincent29vbzl.mp3" length="16397424" type="audio/mpeg"/>
        <itunes:summary><![CDATA[Et si la vraie menace des applis de santé mentale, c'était pas ce qu'on pense?Vincent Montpetit, patient partenaire et doctorant en psychologie, donne son avis sans filtre sur la santé mentale numérique — non pas comme chercheur ou clinicien, mais comme personne directement concernée.
Il parle de vertige des données, de consentement éclairé, et de ce que ça fait vraiment d'être "patient partenaire" dans un projet numérique.
Parce que quand c'est gratuit, quelqu'un finit toujours par payer.
Ce qu'on explore ensemble :
Pourquoi il hésite toujours avant de confier ses données à une appli
Ce que cachent vraiment les petits caractères des formulaires de consentement
Le concept d'intervenant augmenté : opportunité ou dérapage?
La formule R² : réfléchir et se retenir avant d'adopter une solution numérique
Pourquoi les patients partenaires doivent être au cœur des décisions — pas juste comme plantes vertes]]></itunes:summary>
        <itunes:author>centreaxel</itunes:author>
        <itunes:explicit>false</itunes:explicit>
        <itunes:block>No</itunes:block>
        <itunes:duration>1024</itunes:duration>
                <itunes:episode>7</itunes:episode>
        <itunes:episodeType>full</itunes:episodeType>
            </item>
    <item>
        <title>Ép6.L'IA vous promet de réduire votre charge de travail — les études disent le contraire</title>
        <itunes:title>Ép6.L'IA vous promet de réduire votre charge de travail — les études disent le contraire</itunes:title>
        <link>https://centreaxel.podbean.com/e/ep6lia-vous-promet-de-reduire-votre-charge-de-travail-%e2%80%94-les-etudes-disent-le-contraire/</link>
                    <comments>https://centreaxel.podbean.com/e/ep6lia-vous-promet-de-reduire-votre-charge-de-travail-%e2%80%94-les-etudes-disent-le-contraire/#comments</comments>        <pubDate>Mon, 11 May 2026 12:03:00 -0300</pubDate>
        <guid isPermaLink="false">centreaxel.podbean.com/0a0e20e0-2078-3b91-a759-74d82d5e929c</guid>
                                    <description><![CDATA[<p>L'IA devait simplifier votre vie au travail. Pourquoi vous êtes plus épuisé qu'avant? Jessica Ménard, psychologue et présidente des Équipes Ménard, plonge dans un sujet que peu d'entrepreneurs osent aborder franchement : la santé mentale numérique en milieu de travail.</p>
<p>Entre la loi 27, la surcharge informationnelle et la culture d'urgence numérique, elle pose les vraies questions — et donne des pistes concrètes. Parce que non, ce n'est pas parce que tout le monde utilise l'IA que vous devez foncer tête baissée.</p>
<p>Ce qu'on explore ensemble :</p>
<p>C'est quoi la loi 27 et pourquoi ça vous concerne dès maintenant</p>
<p>Pourquoi l'IA crée plus de surcharge qu'elle n'en élimine</p>
<p>L'hyperconnexion : la cigarette du 21e siècle</p>
<p>Comment adresser les valeurs organisationnelles vs individuelles</p>
<p>La "loi zéro" de Yoshua Bengio : garder le contrôle sur l'IA</p>
]]></description>
                                                            <content:encoded><![CDATA[<p>L'IA devait simplifier votre vie au travail. Pourquoi vous êtes plus épuisé qu'avant? Jessica Ménard, psychologue et présidente des Équipes Ménard, plonge dans un sujet que peu d'entrepreneurs osent aborder franchement : la santé mentale numérique en milieu de travail.</p>
<p>Entre la loi 27, la surcharge informationnelle et la culture d'urgence numérique, elle pose les vraies questions — et donne des pistes concrètes. Parce que non, ce n'est pas parce que tout le monde utilise l'IA que vous devez foncer tête baissée.</p>
<p>Ce qu'on explore ensemble :</p>
<p>C'est quoi la loi 27 et pourquoi ça vous concerne dès maintenant</p>
<p>Pourquoi l'IA crée plus de surcharge qu'elle n'en élimine</p>
<p>L'hyperconnexion : la cigarette du 21e siècle</p>
<p>Comment adresser les valeurs organisationnelles vs individuelles</p>
<p>La "loi zéro" de Yoshua Bengio : garder le contrôle sur l'IA</p>
]]></content:encoded>
                                    
        <enclosure url="https://mcdn.podbean.com/mf/web/hxr32bjckkz3yusi/Reflexe_Humain_-_E_pisode6-Jessica8iy56.mp3" length="22349581" type="audio/mpeg"/>
        <itunes:summary><![CDATA[L'IA devait simplifier votre vie au travail. Pourquoi vous êtes plus épuisé qu'avant? Jessica Ménard, psychologue et présidente des Équipes Ménard, plonge dans un sujet que peu d'entrepreneurs osent aborder franchement : la santé mentale numérique en milieu de travail.
Entre la loi 27, la surcharge informationnelle et la culture d'urgence numérique, elle pose les vraies questions — et donne des pistes concrètes. Parce que non, ce n'est pas parce que tout le monde utilise l'IA que vous devez foncer tête baissée.
Ce qu'on explore ensemble :
C'est quoi la loi 27 et pourquoi ça vous concerne dès maintenant
Pourquoi l'IA crée plus de surcharge qu'elle n'en élimine
L'hyperconnexion : la cigarette du 21e siècle
Comment adresser les valeurs organisationnelles vs individuelles
La "loi zéro" de Yoshua Bengio : garder le contrôle sur l'IA]]></itunes:summary>
        <itunes:author>centreaxel</itunes:author>
        <itunes:explicit>false</itunes:explicit>
        <itunes:block>No</itunes:block>
        <itunes:duration>1396</itunes:duration>
                <itunes:episode>6</itunes:episode>
        <itunes:episodeType>full</itunes:episodeType>
            </item>
    <item>
        <title>Ép5.Vos patients utilisent déjà l'IA. Voici ce qu'un psychiatre en pense vraiment</title>
        <itunes:title>Ép5.Vos patients utilisent déjà l'IA. Voici ce qu'un psychiatre en pense vraiment</itunes:title>
        <link>https://centreaxel.podbean.com/e/ep5vos-patients-utilisent-deja-lia-voici-ce-quun-psychiatre-en-pense-vraiment/</link>
                    <comments>https://centreaxel.podbean.com/e/ep5vos-patients-utilisent-deja-lia-voici-ce-quun-psychiatre-en-pense-vraiment/#comments</comments>        <pubDate>Mon, 11 May 2026 12:02:00 -0300</pubDate>
        <guid isPermaLink="false">centreaxel.podbean.com/c9d34772-5106-3216-834a-7ee020bb194b</guid>
                                    <description><![CDATA[<p>Et si la technologie pouvait enfin personnaliser les soins en santé mentale? Alexandre Hudon est psychiatre, chercheur clinicien… et ancien ingénieur logiciel.</p>
<p>Un profil rare qui lui donne un regard unique sur la santé mentale numérique. Dans cet épisode, il nous parle d'alliance thérapeutique digitale, de littératie numérique, et de ce futur où les données pourraient transformer radicalement comment on soigne.</p>
<p>Parce que non — bannir l'IA, c'est plus une option. Vos patients l'utilisent déjà. Ce qu'on explore ensemble :</p>
<p>Pourquoi il utilise le mot "miroir" pour décrire la santé numérique</p>
<p>L'alliance thérapeutique humain-machine : est-ce vraiment possible?</p>
<p>La littératie numérique comme condition essentielle au rétablissement</p>
<p>Les données en santé mentale : le retard alarmant par rapport au reste de la médecine</p>
<p>Sa vision du futur : des soins enfin personnalisés grâce aux données</p>
]]></description>
                                                            <content:encoded><![CDATA[<p>Et si la technologie pouvait enfin personnaliser les soins en santé mentale? Alexandre Hudon est psychiatre, chercheur clinicien… et ancien ingénieur logiciel.</p>
<p>Un profil rare qui lui donne un regard unique sur la santé mentale numérique. Dans cet épisode, il nous parle d'alliance thérapeutique digitale, de littératie numérique, et de ce futur où les données pourraient transformer radicalement comment on soigne.</p>
<p>Parce que non — bannir l'IA, c'est plus une option. Vos patients l'utilisent déjà. Ce qu'on explore ensemble :</p>
<p>Pourquoi il utilise le mot "miroir" pour décrire la santé numérique</p>
<p>L'alliance thérapeutique humain-machine : est-ce vraiment possible?</p>
<p>La littératie numérique comme condition essentielle au rétablissement</p>
<p>Les données en santé mentale : le retard alarmant par rapport au reste de la médecine</p>
<p>Sa vision du futur : des soins enfin personnalisés grâce aux données</p>
]]></content:encoded>
                                    
        <enclosure url="https://mcdn.podbean.com/mf/web/xzs2sz53yyw74puz/Reflexe_Humain_-_E_pisode5-Alexandre9n17s.mp3" length="15009800" type="audio/mpeg"/>
        <itunes:summary><![CDATA[Et si la technologie pouvait enfin personnaliser les soins en santé mentale? Alexandre Hudon est psychiatre, chercheur clinicien… et ancien ingénieur logiciel.
Un profil rare qui lui donne un regard unique sur la santé mentale numérique. Dans cet épisode, il nous parle d'alliance thérapeutique digitale, de littératie numérique, et de ce futur où les données pourraient transformer radicalement comment on soigne.
Parce que non — bannir l'IA, c'est plus une option. Vos patients l'utilisent déjà. Ce qu'on explore ensemble :
Pourquoi il utilise le mot "miroir" pour décrire la santé numérique
L'alliance thérapeutique humain-machine : est-ce vraiment possible?
La littératie numérique comme condition essentielle au rétablissement
Les données en santé mentale : le retard alarmant par rapport au reste de la médecine
Sa vision du futur : des soins enfin personnalisés grâce aux données]]></itunes:summary>
        <itunes:author>centreaxel</itunes:author>
        <itunes:explicit>false</itunes:explicit>
        <itunes:block>No</itunes:block>
        <itunes:duration>938</itunes:duration>
                <itunes:episode>5</itunes:episode>
        <itunes:episodeType>full</itunes:episodeType>
            </item>
    <item>
        <title>Ép4.L'IA en santé mentale : entre émerveillement et bulle qui va éclater</title>
        <itunes:title>Ép4.L'IA en santé mentale : entre émerveillement et bulle qui va éclater</itunes:title>
        <link>https://centreaxel.podbean.com/e/ep4lia-en-sante-mentale-entre-emerveillement-et-bulle-qui-va-eclater/</link>
                    <comments>https://centreaxel.podbean.com/e/ep4lia-en-sante-mentale-entre-emerveillement-et-bulle-qui-va-eclater/#comments</comments>        <pubDate>Mon, 11 May 2026 11:57:00 -0300</pubDate>
        <guid isPermaLink="false">centreaxel.podbean.com/ae9e7a53-a1ba-34fc-a949-9cfb8dbb6893</guid>
                                    <description><![CDATA[<p>L'IA va-t-elle transformer la santé mentale… ou l'endommager? Stéphane Bouchard, psychologue, chercheur et président de la compagnie In Virtuo, était en avance sur son époque : dès 1995, il faisait de la psychothérapie en vidéoconférence.</p>
<p>Aujourd'hui, il pose un regard lucide — et parfois inquiet — sur l'IA en santé mentale.</p>
<p>Dans cet épisode, on parle de réalité virtuelle, de bulle technologique, de l'IA agentique qui prend des décisions à ta place, et surtout : comment garder l'humain au centre quand la technologie va plus vite que l'éthique.</p>
<p>Ce qu'on aborde :</p>
<p>Pourquoi les outils numériques en santé mentale coûtent si cher</p>
<p>La différence entre chercheur et entrepreneur dans ce domaine</p>
<p>Les 3 formes d'IA et leurs risques réels</p>
<p>La bulle de l'IA : est-ce qu'elle va éclater?</p>
]]></description>
                                                            <content:encoded><![CDATA[<p>L'IA va-t-elle transformer la santé mentale… ou l'endommager? Stéphane Bouchard, psychologue, chercheur et président de la compagnie In Virtuo, était en avance sur son époque : dès 1995, il faisait de la psychothérapie en vidéoconférence.</p>
<p>Aujourd'hui, il pose un regard lucide — et parfois inquiet — sur l'IA en santé mentale.</p>
<p>Dans cet épisode, on parle de réalité virtuelle, de bulle technologique, de l'IA agentique qui prend des décisions à ta place, et surtout : comment garder l'humain au centre quand la technologie va plus vite que l'éthique.</p>
<p>Ce qu'on aborde :</p>
<p>Pourquoi les outils numériques en santé mentale coûtent si cher</p>
<p>La différence entre chercheur et entrepreneur dans ce domaine</p>
<p>Les 3 formes d'IA et leurs risques réels</p>
<p>La bulle de l'IA : est-ce qu'elle va éclater?</p>
]]></content:encoded>
                                    
        <enclosure url="https://mcdn.podbean.com/mf/web/um8jd7u7mgmj8ypq/Reflexe_Humain_-_E_pisode4-Ste_phane9wgda.mp3" length="24370414" type="audio/mpeg"/>
        <itunes:summary><![CDATA[L'IA va-t-elle transformer la santé mentale… ou l'endommager? Stéphane Bouchard, psychologue, chercheur et président de la compagnie In Virtuo, était en avance sur son époque : dès 1995, il faisait de la psychothérapie en vidéoconférence.
Aujourd'hui, il pose un regard lucide — et parfois inquiet — sur l'IA en santé mentale.
Dans cet épisode, on parle de réalité virtuelle, de bulle technologique, de l'IA agentique qui prend des décisions à ta place, et surtout : comment garder l'humain au centre quand la technologie va plus vite que l'éthique.
Ce qu'on aborde :
Pourquoi les outils numériques en santé mentale coûtent si cher
La différence entre chercheur et entrepreneur dans ce domaine
Les 3 formes d'IA et leurs risques réels
La bulle de l'IA : est-ce qu'elle va éclater?]]></itunes:summary>
        <itunes:author>centreaxel</itunes:author>
        <itunes:explicit>false</itunes:explicit>
        <itunes:block>No</itunes:block>
        <itunes:duration>1523</itunes:duration>
                <itunes:episode>4</itunes:episode>
        <itunes:episodeType>full</itunes:episodeType>
            </item>
    <item>
        <title>Ép3.Le danger invisible de l’IA en santé mentale</title>
        <itunes:title>Ép3.Le danger invisible de l’IA en santé mentale</itunes:title>
        <link>https://centreaxel.podbean.com/e/ep3le-danger-invisible-de-l-ia-en-sante-mentale/</link>
                    <comments>https://centreaxel.podbean.com/e/ep3le-danger-invisible-de-l-ia-en-sante-mentale/#comments</comments>        <pubDate>Mon, 11 May 2026 11:55:00 -0300</pubDate>
        <guid isPermaLink="false">centreaxel.podbean.com/b7ab9e10-c115-319d-878b-8c6c525fdd16</guid>
                                    <description><![CDATA[<p>Le numérique transforme rapidement la santé mentale. Applications mobiles, intelligence artificielle, agents conversationnels, autosoins numériques… mais une question demeure : peut-on réellement remplacer la relation humaine?</p>
<p>Dans cet épisode de Réflexe Humain, Johana reçoit Vincent Montpetit pour une discussion profonde sur la santé numérique, l’alliance thérapeutique et les limites de l’intelligence artificielle en intervention psychologique. Vincent partage son expérience comme patient partenaire et aborde un concept marquant : le paradoxe de l’intimité avec l’IA.</p>
<p>Pourquoi certaines personnes se confient-elles plus facilement à une machine? Qu’est-ce qui manque malgré tout dans cette interaction? Et surtout, que perd-on lorsque l’humain disparaît de la relation d’aide?</p>
<p>Une conversation essentielle sur :</p>
<p>* la santé mentale numérique;</p>
<p>* les listes d’attente et l’accessibilité aux soins;</p>
<p>* les agents conversationnels comme ChatGPT;</p>
<p>* l’authenticité dans la relation thérapeutique;</p>
<p>* les risques d’une dépendance émotionnelle à l’IA;</p>
<p>* la place irremplaçable du silence, de l’empathie et de la présence humaine.</p>
<p>Cet épisode invite à réfléchir avant d’adopter le numérique comme solution automatique en santé mentale.</p>
]]></description>
                                                            <content:encoded><![CDATA[<p>Le numérique transforme rapidement la santé mentale. Applications mobiles, intelligence artificielle, agents conversationnels, autosoins numériques… mais une question demeure : peut-on réellement remplacer la relation humaine?</p>
<p>Dans cet épisode de Réflexe Humain, Johana reçoit Vincent Montpetit pour une discussion profonde sur la santé numérique, l’alliance thérapeutique et les limites de l’intelligence artificielle en intervention psychologique. Vincent partage son expérience comme patient partenaire et aborde un concept marquant : le paradoxe de l’intimité avec l’IA.</p>
<p>Pourquoi certaines personnes se confient-elles plus facilement à une machine? Qu’est-ce qui manque malgré tout dans cette interaction? Et surtout, que perd-on lorsque l’humain disparaît de la relation d’aide?</p>
<p>Une conversation essentielle sur :</p>
<p>* la santé mentale numérique;</p>
<p>* les listes d’attente et l’accessibilité aux soins;</p>
<p>* les agents conversationnels comme ChatGPT;</p>
<p>* l’authenticité dans la relation thérapeutique;</p>
<p>* les risques d’une dépendance émotionnelle à l’IA;</p>
<p>* la place irremplaçable du silence, de l’empathie et de la présence humaine.</p>
<p>Cet épisode invite à réfléchir avant d’adopter le numérique comme solution automatique en santé mentale.</p>
]]></content:encoded>
                                    
        <enclosure url="https://mcdn.podbean.com/mf/web/day923mmccgcrsmj/Reflexe_Humain_-_E_pisode3-Vincent17ikeq.mp3" length="17374613" type="audio/mpeg"/>
        <itunes:summary><![CDATA[Le numérique transforme rapidement la santé mentale. Applications mobiles, intelligence artificielle, agents conversationnels, autosoins numériques… mais une question demeure : peut-on réellement remplacer la relation humaine?
Dans cet épisode de Réflexe Humain, Johana reçoit Vincent Montpetit pour une discussion profonde sur la santé numérique, l’alliance thérapeutique et les limites de l’intelligence artificielle en intervention psychologique. Vincent partage son expérience comme patient partenaire et aborde un concept marquant : le paradoxe de l’intimité avec l’IA.
Pourquoi certaines personnes se confient-elles plus facilement à une machine? Qu’est-ce qui manque malgré tout dans cette interaction? Et surtout, que perd-on lorsque l’humain disparaît de la relation d’aide?
Une conversation essentielle sur :
* la santé mentale numérique;
* les listes d’attente et l’accessibilité aux soins;
* les agents conversationnels comme ChatGPT;
* l’authenticité dans la relation thérapeutique;
* les risques d’une dépendance émotionnelle à l’IA;
* la place irremplaçable du silence, de l’empathie et de la présence humaine.
Cet épisode invite à réfléchir avant d’adopter le numérique comme solution automatique en santé mentale.]]></itunes:summary>
        <itunes:author>centreaxel</itunes:author>
        <itunes:explicit>false</itunes:explicit>
        <itunes:block>No</itunes:block>
        <itunes:duration>1085</itunes:duration>
                <itunes:episode>3</itunes:episode>
        <itunes:episodeType>full</itunes:episodeType>
            </item>
    <item>
        <title>Ép2.L’IA peut-elle remplacer le jugement clinique ?</title>
        <itunes:title>Ép2.L’IA peut-elle remplacer le jugement clinique ?</itunes:title>
        <link>https://centreaxel.podbean.com/e/ep2l-ia-peut-elle-remplacer-le-jugement-clinique/</link>
                    <comments>https://centreaxel.podbean.com/e/ep2l-ia-peut-elle-remplacer-le-jugement-clinique/#comments</comments>        <pubDate>Mon, 11 May 2026 11:52:00 -0300</pubDate>
        <guid isPermaLink="false">centreaxel.podbean.com/c3a36d1e-7dcf-3bd5-a889-bbebe831fa82</guid>
                                    <description><![CDATA[<p>Aujourd’hui, le numérique transforme profondément l’intervention en santé mentale. Mais derrière les algorithmes, une question demeure : comment préserver l’humain dans un monde où l’intelligence artificielle prend de plus en plus de place?</p>
<p>Dans cet épisode du balado Réflexe Humain, Johana reçoit Hazar, professeure-chercheuse spécialisée en bioéthique, génomique et intelligence artificielle en santé.</p>
<p>Ensemble, elles explorent les grands enjeux éthiques liés à l’IA en santé mentale numérique : consentement éclairé, biais d’automatisation, justice sociale, confidentialité des données, responsabilité clinique et innovation responsable. Une conversation essentielle pour les chercheurs, professionnels de la santé, étudiants, décideurs et citoyens qui souhaitent comprendre les impacts humains de l’intelligence artificielle.</p>
<p>Au programme :</p>
<p>* IA et santé mentale numérique</p>
<p>* Consentement éclairé et autonomie</p>
<p>* Biais d’automatisation</p>
<p>* Éthique de l’intelligence artificielle</p>
<p>* Justice sociale et accès aux soins</p>
<p>* Données de santé et confidentialité</p>
<p>* IA et décision clinique * Innovation responsable</p>
<p>* Littératie numérique</p>
<p>* Co-construction et participation citoyenne</p>
<p>Cet épisode rappelle une idée forte : l’éthique n’est pas un frein à l’innovation, mais une boussole pour construire des technologies plus humaines.</p>
]]></description>
                                                            <content:encoded><![CDATA[<p>Aujourd’hui, le numérique transforme profondément l’intervention en santé mentale. Mais derrière les algorithmes, une question demeure : comment préserver l’humain dans un monde où l’intelligence artificielle prend de plus en plus de place?</p>
<p>Dans cet épisode du balado Réflexe Humain, Johana reçoit Hazar, professeure-chercheuse spécialisée en bioéthique, génomique et intelligence artificielle en santé.</p>
<p>Ensemble, elles explorent les grands enjeux éthiques liés à l’IA en santé mentale numérique : consentement éclairé, biais d’automatisation, justice sociale, confidentialité des données, responsabilité clinique et innovation responsable. Une conversation essentielle pour les chercheurs, professionnels de la santé, étudiants, décideurs et citoyens qui souhaitent comprendre les impacts humains de l’intelligence artificielle.</p>
<p>Au programme :</p>
<p>* IA et santé mentale numérique</p>
<p>* Consentement éclairé et autonomie</p>
<p>* Biais d’automatisation</p>
<p>* Éthique de l’intelligence artificielle</p>
<p>* Justice sociale et accès aux soins</p>
<p>* Données de santé et confidentialité</p>
<p>* IA et décision clinique * Innovation responsable</p>
<p>* Littératie numérique</p>
<p>* Co-construction et participation citoyenne</p>
<p>Cet épisode rappelle une idée forte : l’éthique n’est pas un frein à l’innovation, mais une boussole pour construire des technologies plus humaines.</p>
]]></content:encoded>
                                    
        <enclosure url="https://mcdn.podbean.com/mf/web/qtn4qb5riad5wjah/Reflexe_Humain_-_E_pisode2-Hazar81amm.mp3" length="36707315" type="audio/mpeg"/>
        <itunes:summary><![CDATA[Aujourd’hui, le numérique transforme profondément l’intervention en santé mentale. Mais derrière les algorithmes, une question demeure : comment préserver l’humain dans un monde où l’intelligence artificielle prend de plus en plus de place?
Dans cet épisode du balado Réflexe Humain, Johana reçoit Hazar, professeure-chercheuse spécialisée en bioéthique, génomique et intelligence artificielle en santé.
Ensemble, elles explorent les grands enjeux éthiques liés à l’IA en santé mentale numérique : consentement éclairé, biais d’automatisation, justice sociale, confidentialité des données, responsabilité clinique et innovation responsable. Une conversation essentielle pour les chercheurs, professionnels de la santé, étudiants, décideurs et citoyens qui souhaitent comprendre les impacts humains de l’intelligence artificielle.
Au programme :
* IA et santé mentale numérique
* Consentement éclairé et autonomie
* Biais d’automatisation
* Éthique de l’intelligence artificielle
* Justice sociale et accès aux soins
* Données de santé et confidentialité
* IA et décision clinique * Innovation responsable
* Littératie numérique
* Co-construction et participation citoyenne
Cet épisode rappelle une idée forte : l’éthique n’est pas un frein à l’innovation, mais une boussole pour construire des technologies plus humaines.]]></itunes:summary>
        <itunes:author>centreaxel</itunes:author>
        <itunes:explicit>false</itunes:explicit>
        <itunes:block>No</itunes:block>
        <itunes:duration>2294</itunes:duration>
                <itunes:episode>2</itunes:episode>
        <itunes:episodeType>full</itunes:episodeType>
            </item>
    <item>
        <title>Ép1.Le futur de la santé mentale grâce à l’IA</title>
        <itunes:title>Ép1.Le futur de la santé mentale grâce à l’IA</itunes:title>
        <link>https://centreaxel.podbean.com/e/ep1le-futur-de-la-sante-mentale-grace-a-l-ia/</link>
                    <comments>https://centreaxel.podbean.com/e/ep1le-futur-de-la-sante-mentale-grace-a-l-ia/#comments</comments>        <pubDate>Fri, 08 May 2026 11:47:50 -0300</pubDate>
        <guid isPermaLink="false">centreaxel.podbean.com/1996502b-0a40-3c4b-9660-237c5a959e3c</guid>
                                    <description><![CDATA[<p>Dans ce premier épisode du balado Réflexe Humain, nous recevons Pierrich Plusquellec, professeur à Université de Montréal et spécialiste de l’observation du comportement humain.</p>
<p>Ensemble, nous explorons comment l’intelligence artificielle transforme déjà la santé mentale, la recherche et l’intervention humaine.</p>
<p>De la reconnaissance des émotions à la détection précoce de la dépression et de l’autisme, cet échange fascinant aborde autant les possibilités extraordinaires de l’IA que les enjeux éthiques liés à son utilisation.</p>
<p>Au programme :</p>
<p>* Informatique affective et lecture des émotions</p>
<p>* IA et santé mentale</p>
<p>* Détection précoce de la dépression</p>
<p>* Analyse émotionnelle par la voix</p>
<p>* Prévention et intervention en psychoéducation</p>
<p>* Innovation responsable</p>
<p>* Le rôle des chercheurs face aux technologies émergentes</p>
<p>* Les risques de surveillance émotionnelle</p>
<p>* L’avenir des soins et de l’éducation augmentés par l’IA</p>
<p>Une conversation profonde, accessible et essentielle pour comprendre le futur de l’humain à l’ère numérique.</p>
]]></description>
                                                            <content:encoded><![CDATA[<p>Dans ce premier épisode du balado Réflexe Humain, nous recevons Pierrich Plusquellec, professeur à Université de Montréal et spécialiste de l’observation du comportement humain.</p>
<p>Ensemble, nous explorons comment l’intelligence artificielle transforme déjà la santé mentale, la recherche et l’intervention humaine.</p>
<p>De la reconnaissance des émotions à la détection précoce de la dépression et de l’autisme, cet échange fascinant aborde autant les possibilités extraordinaires de l’IA que les enjeux éthiques liés à son utilisation.</p>
<p>Au programme :</p>
<p>* Informatique affective et lecture des émotions</p>
<p>* IA et santé mentale</p>
<p>* Détection précoce de la dépression</p>
<p>* Analyse émotionnelle par la voix</p>
<p>* Prévention et intervention en psychoéducation</p>
<p>* Innovation responsable</p>
<p>* Le rôle des chercheurs face aux technologies émergentes</p>
<p>* Les risques de surveillance émotionnelle</p>
<p>* L’avenir des soins et de l’éducation augmentés par l’IA</p>
<p>Une conversation profonde, accessible et essentielle pour comprendre le futur de l’humain à l’ère numérique.</p>
]]></content:encoded>
                                    
        <enclosure url="https://mcdn.podbean.com/mf/web/hk8qfqb39n2suecn/Reflexe_Humain_-_E_pisode1-Pierrich6opcz.mp3" length="20641800" type="audio/mpeg"/>
        <itunes:summary><![CDATA[Dans ce premier épisode du balado Réflexe Humain, nous recevons Pierrich Plusquellec, professeur à Université de Montréal et spécialiste de l’observation du comportement humain.
Ensemble, nous explorons comment l’intelligence artificielle transforme déjà la santé mentale, la recherche et l’intervention humaine.
De la reconnaissance des émotions à la détection précoce de la dépression et de l’autisme, cet échange fascinant aborde autant les possibilités extraordinaires de l’IA que les enjeux éthiques liés à son utilisation.
Au programme :
* Informatique affective et lecture des émotions
* IA et santé mentale
* Détection précoce de la dépression
* Analyse émotionnelle par la voix
* Prévention et intervention en psychoéducation
* Innovation responsable
* Le rôle des chercheurs face aux technologies émergentes
* Les risques de surveillance émotionnelle
* L’avenir des soins et de l’éducation augmentés par l’IA
Une conversation profonde, accessible et essentielle pour comprendre le futur de l’humain à l’ère numérique.]]></itunes:summary>
        <itunes:author>centreaxel</itunes:author>
        <itunes:explicit>false</itunes:explicit>
        <itunes:block>No</itunes:block>
        <itunes:duration>1290</itunes:duration>
                <itunes:episode>1</itunes:episode>
        <itunes:episodeType>full</itunes:episodeType>
            </item>
</channel>
</rss>
