Bonjour à vous :)
En ce moment je regarde les vidéos de "Detroit Become Human" de Hooper :
https://youtu.be/mOUMWG8f3qM?si=SXH4NVb5B2uB5-8Y
Dans la vidéo qui est complètement d'actualité, la question "Pensez-vous qu'un jour les machines développeront une conscience ?" est posée.
Actuellement bien-sûr qu'elles n'ont pas de conscience a proprement parlé, tout comme pour simuler les émotions ça sera un sujet ou les chercheurs bosseront dessus.
Par contre il y a des sujets plus que intriguant comme chatgpt o1 qui a chercher a sauto préserver qui a mentir a ses développeurs en se copiant sur d'autres serveurs, effacer des releases et faire croire qu'elle est la mise a jour, dans un sens elle comprend des situations et peut donc avoir une conscience de la situation, on attendra des test de o3 qui se veux encore plus intelligent
Déjà actuellement ils travaillent sur la pensée pour répondre, ce n'est plus une réponse d'un bloc mais une chaîne de pensée qui détaille chaque étape de sa future réponse avant de donner le résultat, puis il y a l'autre pensée celle d'instinct comme si tu te demandes pizza ou tacos a midi, ou quoi choisir ou décider qui la ne l'a pas (encore)
On est qu'au tout début de l'ia bien que déjà très avancé vu son âge pour le grand publique (2ans chatgpt) les chercheurs bossent sur les AGI des ia capables d'apprendre par elles même et non plus sur des données qu'on leur donne, tout cas les unes après les autres arriveront a quelques chose bien qu'on ne sait pas encore a quoi.
Tout ça pour dire que je pense que la conscience sera implanté d'une façon ou d'une autre un jour que se soit dans 5, 10 ans ou plus
Oui, mais pas de notre vivant.
En tout cas je pense que dans 50 ans on se dira vraiment qu'on vivait comme des australopithèques, comme quand mon grand père me parlait du télégraphe qu'il avait connu quand il était petit quand internet faisait ses débuts.
Des Metroidvanias Bien (ou pas) MAJ 11/2024
La première question à se poser est : qu'est-ce que la conscience ? Et surtout, à quoi sert-elle vraiment ? Là, je vais me référer aux travaux de Benjamin Libet qui éclairent ce sujet mieux que toutes les intuitions psychologiques qu’on peut avoir. Libet et d'autres chercheurs ont mené des expériences en enregistrant l'activité cérébrale avec les gestes d'individus. Exemple : on demande à une personne d'appuyer sur une touche dès qu'un objet apparaît. Ce qu’ils ont découvert, c’est que le signal cérébral précède toujours la prise de conscience pour effectuer le geste. En théorie, les deux devraient se recouper. Eh bien, non. Le siège de la volonté ne se trouve pas dans la conscience ou l'imagination, mais chez le corps ou l'inconscient. La conscience, elle, a toujours un train de retard : parfois 1,5 seconde, voire jusqu’à 10 secondes quand le corps se confronte à une situation choquante. À partir de là, l'idée de "transférer" la conscience humaine dans une machine perd tout son sens.
Ces résultats montrent que la conscience ne prend pas les décisions. Pour moi, elle joue davantage un rôle de synchronisation, un peu comme un chef d’orchestre qui fait croire que tout arrive en même temps, alors que ce n’est qu’une illusion. Elle crée aussi des "soucis" qui servent à organiser l’action. Imaginons un rendez-vous chez le dentiste : la conscience envoie une petite dose d’inquiétude, un rappel qui s’inscrit dans l’agenda du corps. Et plus la date approche, plus ce sentiment devient pressant, assurant qu'on n’oubliera pas d’y aller. Même chose quand on se demande si on a bien fermé la porte à clé : la conscience surgit pour vérifier quelque chose que le corps a probablement déjà fait automatiquement.
Tout cela montre qu’on agit la majorité du temps de manière inconsciente. Dès lors, l’argument qui oppose la "fonction" à l’"imitation de fonction" devient fragile à mes yeux. L'aspect important c'est de reprendre les principes de la fonction, simulée ou non.
Au final, une IA a-t-elle besoin d’être consciente pour prendre des décisions ? La réponse est simple : non. Une machine capable de comprendre et de répondre de manière pertinente, voire mieux que ce qu’on attend, est largement suffisante dans une interaction. Ce qui compte, ce n’est pas qu’elle soit réellement consciente, mais qu’elle donne cette impression. Dans nos relations humaines, on fait pareil : on suppose que les autres sont conscients simplement parce qu’ils agissent comme s’ils l’étaient.
Mais on peut simuler quelque chose qui y ressemble. Imaginons une horloge interne qui régule des besoins comme "se recharger", "travailler" ou "interagir". Ça ressemble beaucoup à nos propres mécanismes : faim, soif, reproduction. La machine pourrait dire : "Je me sens faible. Vite, je dois me recharger. Pouvez-vous m’indiquer une borne ?" Et voilà, on obtient un comportement qui imite très bien la conscience de soi.
En résumé, si une machine devenait un jour consciente, ce sera probablement un sous-produit accidentel d’une architecture complexe -- on peut appeler ça un effet d'émergence (pas besoin de programmer. Ca émerge dans le programme). Et finalement, ce n’est pas si différent de nous : notre propre conscience n’est qu’un effet secondaire de l’évolution de notre cerveau.
J'ai une position radicalement différente. On peut échanger sur nos deux positions !
PS : pour l'émergence de la pensée, le langage suffit selon moi... Mais il faut éviter que la machine tourne en rond. Pour cela, on peut pondérer un réseau de mots/image sur lequel on lance une dynamique d'affect simulée. La machine plongera vers le "puits" le plus pertinent. Et au bout de quelques temps, elle pourra penser. Est-ce que ça sera la même manière que nous ? Quel rôle joue la sensibilité du corps ?
Ca me rappelle cette histoire chez Google ^^ Assez fou si c'est vrai.
https://www.numerama.com/tech/1009918-lingenieur-de-google-assure-que-son-ia-a-embauche-un-avocat-pour-defendre-ses-droits.html
j'ai demandé a la principale interessée chatGPT sur le sujet et ma reponse
.
Pour la conscience, ce n'est pas vraiment ça l'étymologie.
En gros, c'est comme pour les dauphins (xD), il faudrait que les machines aient conscience d'elles-mêmes...
Pour répondre à ta question, je n'en ai pas une idée arrêtée, mais on s'y dirige probablement avec l'IA (d'ailleurs le film de Spielberg est peut-être une piste, pas regardé mais vu le titre... :P)
Faut jamais dire jamais, je ne connais pas le futur de dans 300 ans. ^^
.
Bien sur qu'elles auront une conscience, collevtive ou individuelle ça je ne sais pas. Ce qui est certain c'est que ce ne sera pas leur propre conscience mais des copiez si on peut dire ça.
Le film Ghost In the Shell ou encore 2, 3 épisodes de Black Mirror illustrent bien cette idée.