La Taberna del Puerto Greatblue360
"Se navega por los astros, por la mar, por la tierra, por las gentes, por los sentimientos...Se navega." Altair
VHF: Canal 77
Regresar   La Taberna del Puerto > Foro > Comunidad > Charla General

Avisos

Responder
 
Herramientas Estilo
  #1  
Antiguo 04-02-2024, 19:06
Avatar de pronautica
pronautica pronautica esta desconectado
Pirata
 
Registrado: 08-10-2014
Localización: Mediterraneo
Edad: 73
Mensajes: 257
Agradecimientos que ha otorgado: 174
Recibió 247 Agradecimientos en 116 Mensajes
Sexo:
Predeterminado La INTELIGENCIA ARTIFICIAL va al PSICOANALISTA

Un articulo extraordinario sobre la IA...

La inteligencia artificial va al psicoanalista
José Antonio MarinaFilósofo y pedagogo
21/05/2023 06:47 Actualizado a 21/05/2023 08:24
16
En los años cincuenta, el paradigma conductista en psicología –que estudiaba solo la conducta observable– fue sustituido por el “paradigma cognitivista”, interesado en los procesos mentales que sucedían en la “caja negra” de nuestro cerebro. La tecnología de la computación estaba en auge y el deseo de simular mediante una máquina procesos cognitivos forzó a describir estos de una manera más precisa. El ordenador era una máquina tonta que se limitaba a seguir las instrucciones que el programador le daba, lo que exigía a este no saltarse ningún paso, por trivial que pareciera.
Los avances actuales de la inteligencia artificial (IA), en especial ChatGPT, también están permitiendo comprender mejor cómo funciona el cerebro humano, que es en realidad un sistema GPT (Generative Pre-Training Transformer). Al igual que el cerebro humano, esta tecnología genera textos basándose en gigantescos bancos de datos y en procedimientos sintácticos para manejarlos. La máquina no entiende lo que hace, y esto le sucede también a nuestro cerebro. Los mecanismos que preparan una frase –o cualquier fenómeno mental– no son conscientes. El cerebro no conoce la frase que está formando. Somos conscientes de ella en el momento de la enunciación. Por eso tenía razón E.M.Forster cuando hacía decir a uno de sus personajes: “¿Cómo voy a saber lo que pienso, si aún no lo he dicho?”
Thanks for watching!
PUBLICIDAD

Hay que fortalecer el pensamiento crítico para corroborar la fiabilidad de la IA"
Los programas ChatGPT 3 y 4 funcionan por aprendizaje por reforzamiento, como nosotros. Es el procedimiento que estudió B. F. Skinner, para muchos expertos el psicólogo mas influyente del siglo XX, seguido de Piaget y Freud. El cambio más radical en la inteligencia artificial se dio cuando los programadores, en vez de dar instrucciones a la máquina, le ofrecieron premios (refuerzos) para que ella se las ingeniara para alcanzarlos.
Los expertos en este difícil tema afinan mucho y distinguen entre premios y valores. Ambos tienen el carácter de fin –aunque bajo la forma de un número en una ecuación– y, hasta el momento, esa finalidad se la proporciona el programador. Por sí solos, los programas no tienen metas. Me parece una buena introducción a este tema el libro Reinforcement learning: an introduction, de Andrew Barto (del Autonomous Learning Laboratory) y Richard S. Sutton (investigador de Deep Mind).

ChatGPT aprende por reforzamiento, como nosotros
DADO RUVIC / Reuters
Cuando un programa no sigue instrucciones, sino que busca alcanzar premios, podemos dejar de saber lo que está haciendo la máquina, qué datos ha manejado, qué patrones ha encontrado, qué transformaciones y extrapolaciones ha hecho. Cuando se pide a los expertos en IA una “transparencia algorítmica”, se está haciendo una petición imposible de satisfacer. Los investigadores de OpenIA que han diseñado el ChatGPT acaban de reconocer que no saben cómo el programa toma decisiones. Es inevitablemente opaco. Esto es lo que ha producido a muchos un estremecimiento de pánico, y quiero explicarles por qué a mí no me lo ha producido: porque nuestro cerebro hace exactamente lo mismo.
No sabemos cómo tomamos decisiones, por qué se nos ocurren unas cosas en vez de otras, de dónde vienen nuestras preferencia y deseos, por ejemplo la orientación o la identidad sexual. Sigmund Freud escribió: “Durante toda mi vida he procurado ser honesto. No sé por qué”. Para saberlo, inventó el psicoanálisis. Quería descubrir el telar inconsciente donde se tejían nuestras ideas y sentimientos.
Nuestro cerebro es tan opaco como los programas Generative Pre-Training Transformer (GPT)"
Las teorías actuales sobre la inteligencia admiten un inconsciente, aunque no freudiano. Si les interesa este “nuevo inconsciente”, pueden leer los trabajos de John Bargh. Esa expresión designa el conjunto de operaciones mediante las cuales el cerebro capta y maneja información. Poco a poco vamos descubriendo cómo lo hace, pero es tan opaco como los programas GPT. Lo que ocurre es que el cerebro humano ha inventado un sistema de seguridad que le permite no fiarse de ese portentoso trabajo de nuestro “inconsciente cognitivo”. Parte de sus resultados pasan a estado consciente y a partir de él podemos someterlos a una prueba de fiabilidad. ¿De dónde ha sacado los datos?¿Cómo sabemos si el proceso es fiable?¿Podemos reproducirlo? La inteligencia artificial carece de esa capa superior, y debemos proporcionársela nosotros. Daniel Kahneman, premio Nobel de Economía, ha denominado a estos dos niveles de la inteligencia humana Sistema 1 (no consciente, automático, rápido, eficaz, pero no fiable) y Sistema 2 (reflexivo, racional, lento, fiable). En mis libros defiendo una teoría parecida de la inteligencia, pero llamo a esos niveles “inteligencia generadora o computacional” e “inteligencia ejecutiva”.
Pondré un ejemplo de este modelo de inteligencia dual. Henri Poincaré, considerado el gran matemático de su época, contó que, harto de bregar con un complicado problema, decidió dejar el trabajo y distraerse con un viaje. En un momento de la excursión, cuando no estaba pensando en las ecuaciones, la solución apareció en su conciencia. Esa aparición espontánea le intrigó. Si él no había estado pensando conscientemente en el problema ¿quién lo había resuelto? Su conclusión fue que había sido su incansable “inconsciente cognitivo”, al que consideró desde entonces como la fuente de las creaciones matemáticas. Había, sin embargo, un problema. Esas creaciones podían estar equivocadas. Había que someterlas a una crítica consciente antes de aceptarlas como verdaderas.
El gran peligro es el 'emperezamiento' de la inteligencia humana"
Esta es nuestra situación ante la inteligencia artificial. Si queremos ser rigurosos, tendremos que corroborar de alguna manera la fiabilidad de sus resultados. Eso exige fortalecer el pensamiento crítico. Cuanto más potentes sean los mecanismos de la IA, más potente tendrá que ser el pensamiento crítico que los evalúe. De la misma manera que Freud quería llevar a sus pacientes al diván para intentar descubrir el origen de sus sueños o de sus ideas, tendremos que llevar a la IA al psicoanalista.
El gran peligro es el “emperezamiento” de la inteligencia humana. Son tan prodigiosos los alardes de la IA que podemos ir delegando en ella funciones esenciales. Harari y Fukuyama temen una intoxicación de “facilidad”. Estamos de hecho asistiendo en el mundo intelectual a un debilitamiento del pensamiento crítico, que nos hace más dependiente de las máquinas. Caemos en un error ingenuo si imaginamos esta situación como una película de ciencia ficción en que los humanos acabarán siendo siervos de las máquinas. No. Los humanos solo pueden ser siervos de otros seres humanos que utilizan máquinas.

La autonomía de la inteligencia artificial sigue siendo limitada
Peshkova / Otras Fuentes
A pesar del progreso de los “sistemas autónomos”, su autonomía es limitada , no solo por razones del suministro de energía que necesitan, sino porque sus sistemas de preferencias han de estar diseñados por humanos, como he mencionado antes. Lo que llamamos inteligencia artificial es en realidad un híbrido máquina + componente humano. No debemos caer en el timo de la autonomía de la inteligencia artificial, porque si acabamos convenciéndonos de que las máquinas son autónomas y todopoderosas, provocaremos una “profecía que se cumple por el hecho de enunciarla”. Temblaremos ante las máquinas, en vez de temblar ante las personas que usan las máquinas. O sea, que les dejaremos el campo libre


A.
Citar y responder
4 Cofrades agradecieron a pronautica este mensaje:
anengra (04-02-2024), caribdis (05-02-2024), Oscar1966 (04-02-2024), papaventos (05-02-2024)
  #2  
Antiguo 04-02-2024, 19:30
Avatar de Oscar1966
Oscar1966 Oscar1966 esta desconectado
Capitán pirata
 
Registrado: 19-08-2010
Localización: La Manga del Mar Menor
Edad: 58
Mensajes: 627
Agradecimientos que ha otorgado: 88
Recibió 340 Agradecimientos en 222 Mensajes
Sexo:
Predeterminado Re: La INTELIGENCIA ARTIFICIAL va al PSICOANALISTA

Interesante reflexión.

Estamos ante las puertas de una revolución. Todas las revoluciones han tenido sus cosas malas y sus cosas buenas. Pero lo cierto es que cuando una revolución empieza ya no hay forma de pararla y cambiará con toda probabilidad nuestra vida.

Habrá que adaptarse a los cambios que vienen y aprovechar los vientos para llegar a buen puerto.

Saludos, Oscar

Enviado desde mi SM-G990B mediante Tapatalk
Citar y responder
  #3  
Antiguo 04-02-2024, 20:43
Avatar de BORRASCA
BORRASCA BORRASCA esta desconectado
Hermano de la costa
 
Registrado: 06-01-2008
Mensajes: 4,825
Agradecimientos que ha otorgado: 645
Recibió 2,037 Agradecimientos en 1,180 Mensajes
Sexo:
Predeterminado Re: La INTELIGENCIA ARTIFICIAL va al PSICOANALISTA

Cita:
Originalmente publicado por pronautica Ver mensaje
Un articulo extraordinario sobre la IA...

La inteligencia artificial va al psicoanalista
José Antonio MarinaFilósofo y pedagogo
21/05/2023 06:47 Actualizado a 21/05/2023 08:24
16
En los años cincuenta, el paradigma conductista en psicología –que estudiaba solo la conducta observable– fue sustituido por el “paradigma cognitivista”, interesado en los procesos mentales que sucedían en la “caja negra” de nuestro cerebro. La tecnología de la computación estaba en auge y el deseo de simular mediante una máquina procesos cognitivos forzó a describir estos de una manera más precisa. El ordenador era una máquina tonta que se limitaba a seguir las instrucciones que el programador le daba, lo que exigía a este no saltarse ningún paso, por trivial que pareciera.
Los avances actuales de la inteligencia artificial (IA), en especial ChatGPT, también están permitiendo comprender mejor cómo funciona el cerebro humano, que es en realidad un sistema GPT (Generative Pre-Training Transformer). Al igual que el cerebro humano, esta tecnología genera textos basándose en gigantescos bancos de datos y en procedimientos sintácticos para manejarlos. La máquina no entiende lo que hace, y esto le sucede también a nuestro cerebro. Los mecanismos que preparan una frase –o cualquier fenómeno mental– no son conscientes. [size="3"]El cerebro no conoce la frase que está formando. Somos conscientes de ella en el momento de la enunciación. Por eso tenía razón E.M.Forster cuando hacía decir a uno de sus personajes: “¿Cómo voy a saber lo que pienso, si aún no lo he dicho?”[//size

Hay que fortalecer el pensamiento crítico para corroborar la fiabilidad de la IA"
Los programas ChatGPT 3 y 4 funcionan por aprendizaje por reforzamiento, como nosotros. Es el procedimiento que estudió B. F. Skinner, para muchos expertos el psicólogo mas influyente del siglo XX, seguido de Piaget y Freud. El cambio más radical en la inteligencia artificial se dio cuando los programadores, en vez de dar instrucciones a la máquina, le ofrecieron premios (refuerzos) para que ella se las ingeniara para alcanzarlos.
Los expertos en este difícil tema afinan mucho y distinguen entre premios y valores. Ambos tienen el carácter de fin –aunque bajo la forma de un número en una ecuación– y, hasta el momento, esa finalidad se la proporciona el programador. Por sí solos, los programas no tienen metas. Me parece una buena introducción a este tema el libro Reinforcement learning: an introduction, de Andrew Barto (del Autonomous Learning Laboratory) y Richard S. Sutton (investigador de Deep Mind).

ChatGPT aprende por reforzamiento, como nosotros
DADO RUVIC / Reuters
Cuando un programa no sigue instrucciones, sino que busca alcanzar premios, podemos dejar de saber lo que está haciendo la máquina, qué datos ha manejado, qué patrones ha encontrado, qué transformaciones y extrapolaciones ha hecho. Cuando se pide a los expertos en IA una “transparencia algorítmica”, se está haciendo una petición imposible de satisfacer. Los investigadores de OpenIA que han diseñado el ChatGPT acaban de reconocer que no saben cómo el programa toma decisiones. Es inevitablemente opaco. Esto es lo que ha producido a muchos un estremecimiento de pánico, y quiero explicarles por qué a mí no me lo ha producido: porque nuestro cerebro hace exactamente lo mismo.
No sabemos cómo tomamos decisiones, por qué se nos ocurren unas cosas en vez de otras, de dónde vienen nuestras preferencia y deseos, por ejemplo la orientación o la identidad sexual. Sigmund Freud escribió: “Durante toda mi vida he procurado ser honesto. No sé por qué”. Para saberlo, inventó el psicoanálisis. Quería descubrir el telar inconsciente donde se tejían nuestras ideas y sentimientos.
Nuestro cerebro es tan opaco como los programas Generative Pre-Training Transformer (GPT)"
Las teorías actuales sobre la inteligencia admiten un inconsciente, aunque no freudiano. Si les interesa este “nuevo inconsciente”, pueden leer los trabajos de John Bargh. Esa expresión designa el conjunto de operaciones mediante las cuales el cerebro capta y maneja información. Poco a poco vamos descubriendo cómo lo hace, pero es tan opaco como los programas GPT. Lo que ocurre es que el cerebro humano ha inventado un sistema de seguridad que le permite no fiarse de ese portentoso trabajo de nuestro “inconsciente cognitivo”. Parte de sus resultados pasan a estado consciente y a partir de él podemos someterlos a una prueba de fiabilidad. ¿De dónde ha sacado los datos?¿Cómo sabemos si el proceso es fiable?¿Podemos reproducirlo? La inteligencia artificial carece de esa capa superior, y debemos proporcionársela nosotros. Daniel Kahneman, premio Nobel de Economía, ha denominado a estos dos niveles de la inteligencia humana Sistema 1 (no consciente, automático, rápido, eficaz, pero no fiable) y Sistema 2 (reflexivo, racional, lento, fiable). En mis libros defiendo una teoría parecida de la inteligencia, pero llamo a esos niveles “inteligencia generadora o computacional” e “inteligencia ejecutiva”.
Pondré un ejemplo de este modelo de inteligencia dual. Henri Poincaré, considerado el gran matemático de su época, contó que, harto de bregar con un complicado problema, decidió dejar el trabajo y distraerse con un viaje. En un momento de la excursión, cuando no estaba pensando en las ecuaciones, la solución apareció en su conciencia. Esa aparición espontánea le intrigó. Si él no había estado pensando conscientemente en el problema ¿quién lo había resuelto? Su conclusión fue que había sido su incansable “inconsciente cognitivo”, al que consideró desde entonces como la fuente de las creaciones matemáticas. Había, sin embargo, un problema. Esas creaciones podían estar equivocadas. Había que someterlas a una crítica consciente antes de aceptarlas como verdaderas.
El gran peligro es el 'emperezamiento' de la inteligencia humana"
Esta es nuestra situación ante la inteligencia artificial. Si queremos ser rigurosos, tendremos que corroborar de alguna manera la fiabilidad de sus resultados. Eso exige fortalecer el pensamiento crítico. Cuanto más potentes sean los mecanismos de la IA, más potente tendrá que ser el pensamiento crítico que los evalúe. De la misma manera que Freud quería llevar a sus pacientes al diván para intentar descubrir el origen de sus sueños o de sus ideas, tendremos que llevar a la IA al psicoanalista.
El gran peligro es el “emperezamiento” de la inteligencia humana. Son tan prodigiosos los alardes de la IA que podemos ir delegando en ella funciones esenciales. Harari y Fukuyama temen una intoxicación de “facilidad”. Estamos de hecho asistiendo en el mundo intelectual a un debilitamiento del pensamiento crítico, que nos hace más dependiente de las máquinas. Caemos en un error ingenuo si imaginamos esta situación como una película de ciencia ficción en que los humanos acabarán siendo siervos de las máquinas. No. Los humanos solo pueden ser siervos de otros seres humanos que utilizan máquinas.

La autonomía de la inteligencia artificial sigue siendo limitada
Peshkova / Otras Fuentes
A pesar del progreso de los “sistemas autónomos”, su autonomía es limitada , no solo por razones del suministro de energía que necesitan, sino porque sus sistemas de preferencias han de estar diseñados por humanos, como he mencionado antes. Lo que llamamos inteligencia artificial es en realidad un híbrido máquina + componente humano. No debemos caer en el timo de la autonomía de la inteligencia artificial, porque si acabamos convenciéndonos de que las máquinas son autónomas y todopoderosas, provocaremos una “profecía que se cumple por el hecho de enunciarla”. Temblaremos ante las máquinas, en vez de temblar ante las personas que usan las máquinas. O sea, que les dejaremos el campo libre


A.
Menuda memez: Primero el cerebro elabora la idea, despues la contruye en el idioma correspondiente y luego la pronuncia.
No dejeis que os coman el coco con la IA los ordenadores simplemente ejecutan las ordenes recibidas
__________________
BARRILES DE RON JAMAICANO PARA TODOS
Citar y responder
  #4  
Antiguo 05-02-2024, 09:15
Avatar de Bertie
Bertie Bertie esta desconectado
Corsario
 
Registrado: 13-05-2016
Localización: Cantábrico
Edad: 56
Mensajes: 1,628
Agradecimientos que ha otorgado: 207
Recibió 710 Agradecimientos en 491 Mensajes
Sexo:
Predeterminado Re: La INTELIGENCIA ARTIFICIAL va al PSICOANALISTA

Cita:
Originalmente publicado por BORRASCA Ver mensaje
Menuda memez: Primero el cerebro elabora la idea, despues la contruye en el idioma correspondiente y luego la pronuncia.
No dejeis que os coman el coco con la IA los ordenadores simplemente ejecutan las ordenes recibidas
Es cierto, pero en el caso de la IA es algo diferente. Los motores de IA "imitan" el funcionamiento de las neuronas (lo que se llaman redes neurales), pero lo hacen a una escala tan grande que en la práctica es imposible saber cómo han llegado a un resultado.
Un programa normal lo puedes depurar paso a paso, y aun así es bastante difícil dar con el 'bug'. Los modelos de IA trabajan con algoritmos relativamente sencillos, pero se entrenan con unas cantidades brutales de datos, y eso es lo que hace que funcionen. Además tienen un factor aleatorio para dar más variedad, con lo que frecuentemente dan resultados diferentes a una misma pregunta.
__________________
incerti quo fata ferant, ubi sistere detur
...sin saber a dónde nos llevarán los hados, dónde nos será dado establecernos.
Citar y responder
  #5  
Antiguo 05-02-2024, 18:49
Avatar de BORRASCA
BORRASCA BORRASCA esta desconectado
Hermano de la costa
 
Registrado: 06-01-2008
Mensajes: 4,825
Agradecimientos que ha otorgado: 645
Recibió 2,037 Agradecimientos en 1,180 Mensajes
Sexo:
Predeterminado Re: La INTELIGENCIA ARTIFICIAL va al PSICOANALISTA

Cita:
Originalmente publicado por Bertie Ver mensaje
Es cierto, pero en el caso de la IA es algo diferente. Los motores de IA "imitan" el funcionamiento de las neuronas (lo que se llaman redes neurales), pero lo hacen a una escala tan grande que en la práctica es imposible saber cómo han llegado a un resultado.
Un programa normal lo puedes depurar paso a paso, y aun así es bastante difícil dar con el 'bug'. Los modelos de IA trabajan con algoritmos relativamente sencillos, pero se entrenan con unas cantidades brutales de datos, y eso es lo que hace que funcionen. Además tienen un factor aleatorio para dar más variedad, con lo que frecuentemente dan resultados diferentes a una misma pregunta.
L IA procede de la IN y esta es inconmensurable
__________________
BARRILES DE RON JAMAICANO PARA TODOS

Editado por BORRASCA en 05-02-2024 a las 20:08.
Citar y responder
Responder Ver todos los foros en uno

Greatblue360


Reglas del foro
No puedes crear discusiones
No puedes responder a mensajes
No puedes editar tus adjuntos
No puedes editar tus mensajes

BB code está activado
Emoticonos está activado
El código [IMG] está activado
El código HTML está desactivado
Ir a


Todas las horas son GMT +1. La hora es 13:11.


Powered by vBulletin® Version 3.7.0
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
© La Taberna del Puerto