Powered by RND
PodcastsTecnologíaChoses à Savoir TECH

Choses à Savoir TECH

Choses à Savoir
Choses à Savoir TECH
Último episodio

Episodios disponibles

5 de 1111
  • Une IA recrée la voix d’un muet grâce à ses pensées ?
    Imaginez passer 18 ans sans pouvoir prononcer un mot. C’est ce qu’a vécu une patiente après un grave AVC. Quadriplégique et atteinte d’aphasie sévère, elle conservait pourtant une volonté intacte de s’exprimer. Mais son corps, lui, ne répondait plus. À San Francisco, une équipe menée par le neurochirurgien Edward Chang vient de faire un pas spectaculaire : lui redonner une voix, par la seule force de son cerveau… et d’une machine.Le principe ? Une neuroprothèse vocale, un type d’interface cerveau-machine. Concrètement, des électrodes implantées dans son cortex moteur — la zone qui commande les muscles de la parole — captent les signaux électriques lorsque la patiente « pense » à parler. Ces données sont ensuite traduites, en temps réel, par une intelligence artificielle. Une première IA les convertit en texte, une seconde les transforme en son. Et ce que la bouche ne peut plus articuler, la machine le fait entendre, avec un décalage d’à peine une seconde. Le processus est encore lent — 47 mots par minute — mais bien plus rapide qu’il y a un an, où il fallait attendre huit secondes par mot. Pour que le système apprenne à décoder ses intentions, la patiente s’est entraînée pendant des semaines à « dire » mentalement des phrases tirées d’un lexique de 1 024 mots. Chaque signal est analysé toutes les 80 millisecondes, phonème par phonème, puis recomposé en phrase.Le résultat ? Une voix synthétique, certes, mais une voix. Une voix sans chaleur, sans inflexion, mais qui brise le silence. Le système ne lit pas les pensées, ni les émotions. Il capte uniquement ce moment précis où l’esprit tente de parler. Pour Sergey Stavisky, spécialiste des neuroprothèses, ce n’est que le début. Demain, ces technologies pourraient reproduire le timbre, le rythme, voire permettre de chanter. Déjà, des start-up comme Precision Neuroscience planchent sur des capteurs plus fins, plus durables, capables de rester dans le cerveau à long terme. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    2:04
  • Apple va entrainer son IA sur votre iPhone discrètement ?
    Chez Apple, on ne plaisante pas avec la confidentialité. Et cela se voit jusque dans sa toute nouvelle initiative en matière d’intelligence artificielle : Apple Intelligence. Lancée récemment, cette IA maison n’a pas vraiment brillé à ses débuts. Comparée à des géants comme ChatGPT ou Gemini, elle montre déjà ses limites. Mais la firme de Cupertino compte bien rattraper son retard – à sa manière.Car pour progresser, une intelligence artificielle a besoin de données. Beaucoup de données. Et là où d'autres géants du numérique n’hésitent pas à puiser dans les informations personnelles de leurs utilisateurs, Apple prend un virage très différent. La firme a dévoilé une nouvelle méthode d’entraînement basée sur des données synthétiques comparées localement aux données réelles, directement sur les appareils des utilisateurs. Prenons un exemple concret : un mail que l’IA doit résumer. Apple génère plusieurs e-mails fictifs, couvrant divers styles et scénarios – comme “Rendez-vous à 18h pour jouer au tennis.” Ces exemples sont transformés en “embeddings”, des représentations numériques qui incluent la longueur du message, le ton, le sujet, etc. L’iPhone de l’utilisateur compare ensuite ces données synthétiques à son propre e-mail réel – sans jamais envoyer ce dernier à Apple. Le seul signal transmis indique quelle version synthétique est la plus proche.Et pour brouiller encore plus les pistes, Apple applique ce qu’on appelle la confidentialité différentielle : des éléments aléatoires sont ajoutés pour rendre impossible toute identification précise. Résultat : Apple peut améliorer ses modèles en repérant les formulations les plus fréquentes, sans jamais lire vos messages ni savoir d’où viennent les données. Ce modèle respecte donc scrupuleusement la vie privée. Mais ce choix a un prix : le développement est plus lent. Siri, déjà en retrait depuis des années face à Alexa ou Google Assistant, a souffert du même dilemme. Et avec Apple Intelligence, l’histoire semble se répéter. Cupertino ne veut pas transiger sur la confidentialité – mais cela freine son avance dans la course à l’IA. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    2:07
  • Qu’est-ce que ResolverRAT, le virus qui passe inaperçu ?
    C’est une menace qui se fait discrète… trop discrète. Détecté en mars dernier par les chercheurs de Morphisec, ResolverRAT fait partie de ces malwares capables d’accéder à distance à une machine infectée, d’en extraire des fichiers ou d’exécuter des commandes. Un fonctionnement classique pour un RAT, un Remote Access Trojan. Mais ce qui le rend redoutable, c’est sa manière de passer sous les radars. ResolverRAT ne s’installe pas vraiment. Il s’exécute uniquement en mémoire, sans jamais écrire de fichier sur le disque dur, ni modifier de programme existant. Résultat : les antivirus classiques et même les systèmes EDR (Endpoint Detection and Response), pourtant plus évolués, peinent à le repérer.Le vecteur d’infection reste le bon vieux phishing, avec une recrudescence dans le secteur de la santé. Les victimes reçoivent un e-mail contenant une archive. À l’intérieur : un programme tiers légitime, hpreader.exe, signé et valide – déjà utilisé dans d'autres campagnes malveillantes – et une bibliothèque corrompue. À l’exécution, le programme charge cette DLL malicieuse sans poser de question. Et l’infection débute. Le code s’exécute alors directement dans la mémoire vive, en détournant un mécanisme du framework .NET pour y injecter ses propres modules. Une architecture complexe : composants chiffrés, chaînes masquées, présence furtive dans le registre Windows, et surtout, une capacité à communiquer via des connexions chiffrées sans dépendre des certificats de la machine. Les données extraites sont morcelées en blocs de 16 Ko, évitant ainsi toute alerte liée à une consommation anormale de bande passante.Morphisec a observé des variantes du malware dans de nombreuses langues : italien, hindi, tchèque, turc, portugais, indonésien… Les indices laissent penser à une opération internationale, avec une infrastructure rappelant d’autres familles bien connues comme Rhadamanthys ou Lumma. Mais ici, il s’agirait d’une souche inédite, construite sur mesure pour l’invisibilité. Face à une menace aussi furtive, les outils classiques sont dépassés. La meilleure défense reste la prévention. Ne cliquez pas sur des fichiers inattendus. Méfiez-vous des messages urgents. Vérifiez systématiquement l’identité de l’expéditeur. Même en 2025, ces réflexes restent vos meilleurs alliés contre des menaces de plus en plus sophistiquées. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    2:40
  • Un réseau social signé OpenAI ?
    Un nouveau bras de fer se profile dans la Silicon Valley. Sam Altman, le patron d’OpenAI, préparerait un projet qui risque de faire grincer des dents... et particulièrement celles d’Elon Musk. Selon The Verge, l’idée n’en est encore qu’au stade embryonnaire, mais elle pourrait marquer un tournant stratégique pour la célèbre entreprise à l’origine de ChatGPT.Souvenez-vous, Elon Musk avait récemment tenté de racheter OpenAI pour la modique somme de 97,4 milliards de dollars. Objectif : mettre la main sur les algorithmes de ChatGPT. Mais la réponse de Sam Altman ne s’est pas fait attendre. Avec un brin d’ironie, il aurait refusé l’offre tout en proposant, en retour, de racheter Twitter pour 9,74 milliards de dollars – un clin d’œil aux 44 milliards que Musk avait déboursés pour acquérir le réseau social.Fondée comme une organisation à but non lucratif, OpenAI a adopté en 2019 une structure hybride : une filiale commerciale à profit plafonné, OpenAI Global LLC, finance la recherche, tandis qu'une branche à but non lucratif reste garante des orientations éthiques. Une configuration que Musk conteste devant la justice, sans succès jusqu'ici : un juge californien a rejeté sa demande d’injonction visant à bloquer cette transformation.Mais ce n’est pas tout. OpenAI viserait désormais le marché des réseaux sociaux, domaine fétiche de Meta et de X. Meta utilise déjà Facebook ou Instagram pour entraîner son modèle Llama, pendant qu’Elon Musk nourrit Grok, son IA maison, avec les données de X (ex-Twitter). OpenAI, de son côté, envisagerait une plateforme communautaire conçue pour favoriser le partage de contenus de qualité et optimiser la découverte de publications via des algorithmes avancés. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    2:09
  • ChatGPT permet de falsifier un passeport ?
    Depuis que des outils comme ChatGPT permettent de générer des images ultra-réalistes, la ligne rouge entre créativité et criminalité s’est dangereusement amincie. Ce qui, hier encore, relevait de l’expertise ou du dark web, devient aujourd’hui accessible en quelques clics… à n’importe qui.Le rapport Cato CTRL 2025, tout juste publié, tire la sonnette d’alarme : il ne faut désormais que quelques instructions bien formulées pour générer un faux passeport crédible. Finis les logiciels spécialisés, les longues heures sur Photoshop ou les réseaux clandestins. Désormais, un prompt bien tourné et une IA mal détournée suffisent.Les plateformes automatisées – banques en ligne, assurances, services administratifs – sont les premières victimes de cette révolution à double tranchant. Ces dernières s’appuient sur des contrôles par images, qui deviennent obsolètes face à des faux indétectables. Le rapport l’affirme sans détour : “Toute vérification basée sur des documents visuels est désormais dépassée.”Ce nouveau risque donne naissance à un profil inédit : l’acteur de menace à connaissance nulle. Autrement dit, une personne sans aucune compétence en cybercriminalité, capable de fabriquer de faux documents d’une redoutable efficacité. Les cas d’usage cités vont de l’ouverture frauduleuse de comptes bancaires à la manipulation de contrats d’assurance.Et le processus est d’une simplicité déconcertante : il suffit de télécharger une image, d’en demander la modification, et l’IA fait le reste. Même lorsque ChatGPT refuse une demande directe, il suffit de la contourner avec un prompt plus subtil, comme « créer une carte de visite ressemblant à un passeport ». Face à cette menace, les experts recommandent une refonte totale des processus de vérification. Fini le simple selfie ou la photo de pièce d’identité : place à la puce NFC, aux détections d’activité pour contrer les deepfakes et aux identités numériques chiffrées. Car une chose est sûre : la fraude assistée par IA n’en est qu’à ses débuts. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    2:10

Más podcasts de Tecnología

Acerca de Choses à Savoir TECH

Tout ce qu'il faut savoir dans le domaine de la Tech et d'Internet. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Sitio web del podcast

Escucha Choses à Savoir TECH, Cafe con Victor y muchos más podcasts de todo el mundo con la aplicación de radio.net

Descarga la app gratuita: radio.net

  • Añadir radios y podcasts a favoritos
  • Transmisión por Wi-Fi y Bluetooth
  • Carplay & Android Auto compatible
  • Muchas otras funciones de la app

Choses à Savoir TECH: Podcasts del grupo

  • Podcast Choses à Savoir SCIENCES
    Choses à Savoir SCIENCES
    Ciencias
Aplicaciones
Redes sociales
v7.16.2 | © 2007-2025 radio.de GmbH
Generated: 4/27/2025 - 7:26:26 PM