lunes, 26 de mayo de 2025
miércoles, 7 de mayo de 2025
domingo, 4 de mayo de 2025
martes, 29 de abril de 2025
domingo, 9 de febrero de 2025
Experto en IA el Futuro de la Inteligencia Artificial Explicado
miércoles, 5 de febrero de 2025
viernes, 3 de enero de 2025
lunes, 1 de julio de 2024
domingo, 17 de diciembre de 2023
riesgos de deshumanizar los cuidados oncológicos por el uso excesivo de Inteligencia Artificial
Investigadores del Instituto Dana- Farber han alertado en un artículo sobre la necesidad de revisar la asistencia sanitaria mediada por la Inteligencia Artificial (IA) en pacientes oncológicos. «Hasta la fecha, ha habido poca consideración formal del impacto de las interacciones de los pacientes con los programas de IA que no han sido examinados por los médicos u organizaciones reguladoras», explica Amar Kelkar, uno de los principales autores.
El informe ha sido publicado en la revista JCO Oncology Practice, y se dirige a las sociedades médicas, dirigentes gubernamentales y personal sanitario, siendo estos los primeros en tratar los dilemas que puede presentar la incorporación de IA en la práctica clínica e investigación oncológica.
Cierto es que la IA ha supuesto un gran avance en el ámbito oncológico, ya sea en la búsqueda de patrones, diagnóstico y evolución de la enfermedad, monitorización y predicción del tratamiento oncológico, así como en el logro de una atención medica más eficiente, disminuyéndose costes y tiempo.
No obstante, uno de los principales autores y especialista en trasplante de células troncales en oncología, Amar Kelkar, explica que es necesario » explorar los desafíos éticos de la Inteligencia Artificial de cara al paciente oncológico, con una preocupación particular por sus posibles implicaciones relacionadas con el respeto a la dignidad humana».
El informe destaca alguno de los ámbitos donde puede verse afectada la interacción entre los pacientes y la IA. La teleasistencia sanitaria, como método de relación virtual que recopila datos del paciente y permite su seguimiento clínico, podría verse afectadas comprometiendo la confidencialidad médico-paciente, o la disminución de revisiones presenciales por parte del médico, que serían sustituidas por programas autónomos.
Todas estas situaciones pueden derivar en una despersonalización de la atención sanitaria. Los autores destacan algunos principios que no deberían verse afectados por la introducción de la IA en la atención médica tales como “la dignidad humana, la autonomía del paciente, la equidad y la justicia, la supervisión deontológica y la colaboración, para garantizar que la atención sanitaria impulsada por la IA sea ética y equitativa.”
“Por muy sofisticada que sea, la IA no puede alcanzar la empatía, la compasión y la comprensión, sólo posibles en los cuidadores humanos. La dependencia excesiva de la IA podría conducir a una atención impersonal y a una disminución del factor humano, erosionando potencialmente la dignidad del paciente y las relaciones terapéuticas”, señalan los autores.
viernes, 15 de diciembre de 2023
La inteligencia artificial. ¿Un puente entre el transhumanimo y el posthumanismo?
En 1957, el biólogo y ensayista ingles Julian Huxley, primer presidente de la UNESCO, en un ensayo publicado en Londres bautizaba por primera un nuevo modelo de eugenesia, el transhumanismo, en el que decía: «La especie humana puede, si así quiere, trascenderse a sí misma en su integridad, como humanidad. Necesitamos un hombre para esa nueva creencia. Quizás el transhumanismo pueda servir: el hombre sigue siendo hombre, pero trascendiéndose a sí mismo, realizando nuevas posibilidades de y para su naturaleza humana».(1)
Casi cincuenta años después, bajo el señuelo de las llamadas tecnologías emergentes: la biotecnología (la ingeniería genética), la nanotecnología, las ciencias de la información (inteligencia artificial), y las ciencias del conocimiento o neurociencias, asistimos al renacimiento de una nueva eugenesia que trata de modificar las características de los seres humanos, tal como expresara Julian Haxley. Es el ámbito de la nano–bio–info–cogno –NBIC-, que ha impulsado a algunos investigadores y filósofos hacia aplicaciones inimaginables hasta hace poco y que constituyen las bases del transhumanismo.
El filósofo sueco Nick Bostrom de la Universidad de Oxford, uno de sus principales defensores y director del Instituto para el Futuro de la Humanidad define el transhumanismo como:
«Un movimiento cultural, intelectual y científico que afirma la deuda moral para mejorar las capacidades físicas e intelectuales de la especie humana, y para aplicar al hombre las nuevas tecnologías que puedan eliminar los aspectos indeseados y no necesarios de la condición humana: el sufrimiento, las enfermedades, la vejez e incluso su condición mortal».
No se trata simplemente de mejorar la salud, eliminar las discapacidades o curar enfermedades, sino de producir seres humanos más fuertes, más rápidos y atléticos, más inteligentes y más longevos.
En una reunión sobre transhumanismo celebrada en New York en junio de 2013, la «Global Future 2045», se exhibían eslóganes tales como: «es un derecho humano. La gente tiene derecho a vivir y a no morir»; «la evolución inteligente autodirigida guiará la metamorfosis de la humanidad en una metainteligencia planetaria inmortal».
En realidad, el transhumanismo trasciende el ámbito de la Genética y aún de la ciencia.
En concreto las acciones que pretenden realizar los transhumanistas se pueden clasificar en cinco tipos:
- Acciones sobre los genes (o moléculas de ADN en general),
- Acciones sobre las células y tejidos.
- Acciones sobre los órganos y sistemas.
- Acciones sobre la capacidad cognitiva, la mente o la inteligencia
- Acciones para la prolongación de la vida.
Respecto al nivel de modificadores de los genes se trata de transformar las características genéticas de múltiples caracteres, mediante la aplicación de técnicas como las que se vienen empleando desde hace años en terapia génica, pero con fines más amplios que los que corresponden a un mejoramiento de la salud, dirigidos a la adquisición de capacidades físicas o intelectuales superiores a las naturales. Entre ellos alterar las características físicas, aumentar la inteligencia o prolongar la vida.
Vana ilusión, pues muchos de los deseados caracteres que se desean manipular no son manejables con las técnicas de terapia génica, ni tampoco con la reciente tecnología de edición genómica del CRISPR-Cas9, que no permiten modificar múltiples genes, o sistemas poligénicos, como son todos los que desearían los transhumanistas.
En particular, prolongar la vida o aumentar la inteligencia es una utopía pues, hasta donde sabemos a base de marcadores moleculares en los genomas conocidos de más de cuarenta millones de perfiles genómicos humanos almacenados en la gran base de datos GWAS, no hay genes simples implicados, sino en todo caso múltiples genes de acción aditiva. Además de tratarse de caracteres muy influidos por factores ambientales…
En este sentido el Dr. Sydney Brenner, Nobel de Medicina de 2002 señalaba: «Los intentos actuales de mejorar a la especie humana mediante la manipulación genética no son peligrosos, sino ridículos… Supongamos que queremos un hombre más inteligente. El problema es que no sabemos con exactitud qué genes manipular… Solo hay un instrumento para transformar a la humanidad de modo duradero y es la cultura».
Respecto a las acciones sobre las células, tejidos, órganos y sistemas, tratan de modificar aspectos estructurales y funcionales del organismo humano y, en principio, están relacionados con las posibilidades que ofrecen las tecnologías emergentes, incluida la terapia génica y la edición genómica, para modificar las condiciones físicas o de salud de las personas. Muchas de ellas ofrecen mejoras indudables de la salud y no ofrecen dudas éticas o morales cuando se trata de curar o aliviar las consecuencias de una patología. Ahí podemos enmarcar todas las innovaciones para la corrección de órganos tan vitales como la vista o el oído, como las retinas artificiales o el oído biónico, o las prótesis de brazos, piernas, etc. Son aceptables siempre que no se sobrepasen los límites de lo que sería una función normal y no superior con fines espurios del órgano natural afectado,
La cuarta categoría se refiere a acciones sobre el aparato neuromotor, principalmente abordado mediante la utilización de fármacos o drogas. En el inventario de los transhumanistas vale cualquier método con tal de producir un efecto sobre las capacidades mentales humanas, en este caso sobre las funciones sensoriales y neuromotoras, con consecuencias psicológicas y emocionales. Se utilizan drogas o fármacos conducentes a reforzar la capacidad cognitiva, la memoria, la concentración mental, etc. Es éticamente reprobable si se dirige con fines ajenos a la salud, y si de lo que se trata es de controlar la voluntad o el comportamiento de las personas, como puede ser para lo que se ha dado en llamar la sumisión química, como ocurre en casos de abusos sexuales o usos de espionaje.
Con relación a la longevidad, incluso la inmortalidad, es una utopía. Hay alguna iniciativa con fundamento válido, como la del genetista y gerontólogo inglés Aubrey de Grey, de la Universidad de Cambridge, que dirige un proyecto denominado Senescencia Negligible Ingenierizada. Su idea es la prolongar la vida de forma indefinida, y alcanzar la longevidad por años sin término, a base de aplicar una serie de métodos para la reparación de las células y los tejidos humanos, aunque parte del convencimiento reduccionista de que el hombre es un compuesto químico y la vejez es el resultado de una autointoxicación, que puede ser evitada con acciones en una serie de frentes.
Paso por alto otras iniciativas como la de evitar el acortamiento de los telómeros o editar genes implicados en la longevidad. Si lo que se quiere es prolongar la vida, más que por impensables operaciones de mejoramiento genético y dado que la influencia de los genes es de tan solo un 20% en el envejecimiento, sería mejor atender las causas ambientales, buena alimentación, ejercicio físico, cuidados médicos y buenos hábitos de vida.
Un punto importante de lo que desean los transhumanistas es que las acciones que se hagan sean heredables. Por ello, aceptan como beneficiosas las modificaciones que se destinaran a mejorar a los seres humanos futuros por medio de la manipulación genética, pero especialmente en la línea germinal. La edición génica en la línea germinal o en embriones obtenidos por FIV y elegidos tras Diagnóstico Genético Preimplantatorio, permitiría el “mejoramiento” de cualquier carácter genético, esté o no relacionado con la salud, y sobre todo que se mantuviera en las siguientes generaciones.
Del transhumanismo al posthumanismo
Los transhumanistas piensan que el “transhumanismo” no es el objetivo final, sino una fase de transición hacia el “posthumanismo”. De este modo describe Nick Bostrom a los posthumanos: seres futuros cuyas capacidades básicas exceden las de los humanos presentes en tan gran medida que ya no son inequívocamente reconocidos como humanos según nuestros estándares actuales.
El factor que haría posible la transición hacia el posthumanismo sería la inteligencia artificial.
El ingeniero de ciencias de la computación Raymond Kurzweil, famoso inventor y empresario vinculado al Sillicon Valley en California, dice que la especie humana está a punto de dar un salto evolutivo mediante tecnologías artificiales para convertirse en una nueva especie. Ese momento es a lo que este tecnólogo denomina singularidad tecnológica, que se alcanzará cuando se produzca la fusión entre la inteligencia artificial y la inteligencia natural.
Para quienes sostienen estas ideas la batalla está en pleno auge y mientras que la inteligencia humana permanece en su estado natural, sin más avances que los propios de la acumulación de conocimientos, la inteligencia artificial progresa exponencialmente. Uno de sus defensores es el neurocientífico Anders Sandberg, otro profesor de la Universidad de Oxford, que opina a favor del trasvase del contenido sináptico de nuestro cerebro a un ordenador para, de esta manera, prolongar la vida humana en una especie de vida postbiológica, y por tanto posthumana.
El Profesor Manuel Alfonseca Moreno, Catedrático de la Universidad Autónoma de Madrid, se refiere al problema de fondo, señala que la inteligencia artificial no tiene nada de humana y se pregunta si realmente se sabe lo que es la inteligencia natural, la mente, pues si lo que se pretende es conseguir una inteligencia artificial que incluso la supere habrá que empezar por saber que naturaleza tiene aquello que se quiere imitar e incluso superar: «Después de todo, la inteligencia artificial es una copia…: ¿sabemos lo que es la inteligencia natural, cómo surge y cómo se desarrolla, para poder emularla en nuestras máquinas. Porque si no sabemos lo que estamos buscando, difícilmente vamos a conseguirlo».
Y la verdad es que no podemos quedarnos con la simpleza de que la inteligencia, la conciencia y todo lo que se relacione con la mente humana es simplemente como un software o un epifenómeno del cerebro. El pensamiento, la mente, no es equivalente al cerebro, ni se compone de materia, como las neuronas o sus conexiones, sino que es una realidad inmaterial. Desde el dualismo neurofisiológico y metafísico, acorde con la tradición cristiana sobre el concepto de persona, el cerebro y la mente, cuerpo y alma, son realidades distintas, aunque hipostáticamente unidas hasta llegar a constituir una unidad presente en cada ser humano.
En cuanto a la inteligencia artificial la cuestión no es tan simple como pensar que llegará el momento en que se hará equivalente o incluso superior a la humana. Se deben distinguir cuando menos dos niveles: La inteligencia artificial débil y la inteligencia artificial fuerte.
La inteligencia artificial débil es la de los medios informáticos que está progresando y utilizamos para resolver de forma eficaz, concreta, y automática problemas que obedecen a unas rutinas ceñidas a unos algoritmos lógicos que el propio hombre le ha proporcionado a las máquinas. Estas, no piensa por sí mismas, responden a lo que se les pide de acuerdo con las rutinas informáticas que el propio hombre las ha proporcionado. Eso sí, son enormemente útiles para:
- Ordenar datos (bases de datos)
- Resolver juegos (incluso partidas de ajedrez)
- Traducir textos
- Procesar textos
- Reconocer la palabra hablada
- Analizar datos y resolver problemas
- Reconocer imágenes (medicina)
- Conducir vehículos de forma automática
Estos son grandes logros que facilitan muchas tareas y han permitido facilitar el trabajo intelectual humano. Pero su funcionamiento no es autónomo, sino dependiente de unos algoritmos y un aprendizaje que los seres humanos le han proporcionado a la máquina.
La inteligencia artificial fuerte sería la que algunos piensan se equipararía o incluso superaría a la inteligencia natural humana. Máquinas pensantes por sí solas, como un humano, con todas sus capacidades y sentimientos.
Hay muchos informáticos que niegan que eso llegue a producirse. Así, el ingeniero informático Jeff Hawkins, un innovador en el mundo de los teléfonos móviles, dice que: «Los científicos del campo de la inteligencia artificial han sostenido que los computadores serán inteligentes cuando alcancen una potencia suficiente. Yo no lo creo…: los cerebros y las computadoras hacen cosas fundamentalmente diferentes».
De modo parecido opina Ramón López Mantarás, director del Instituto de Investigación en Inteligencia Artificial del CSIC: «el gran desafío de la inteligencia artificial es dotar de sentido común a las máquinas… Por muy sofisticadas que sean algunas inteligencias artificiales en el futuro, dentro de 100.000 o 200.000 años, serán distintas de las humanas».
Sin embargo, los posthumanistas no ven inconveniente en trasladar la inteligencia humana a una máquina, creando así lo que llaman un ciborg o avatar.
Como Kevin Warwick, profesor de la universidad de Reading, que justifica así su Proyecto Cibor: “Así como los humanos nos separamos de nuestros primos chimpancés hace años los ciborgs se separarán de los humanos. Aquellos que permanecen como humanos probablemente se conviertan en una subespecie. Serán efectivamente los chimpancés del futuro”.
Es también el caso del Proyecto Avatar 2045 que pretende la inmortalidad cibernética, de tal modo que nuestro ser material intangible, nuestra identidad, llegue a transferirse a un avatar, un holograma, un ciborg o un robot para alcanzar la inmortalidad. Sorprende la expresión material intangible que utilizan los promotores del proyecto por la contradicción que supone que algo que no se puede tocar, tenga una sustancia material, pero es la ambigüedad del lenguaje que utilizan los posthumanistas.
Su desarrollo tendrá lugar en varias etapas, entre 2015 y 2045. Supuestamente, al final se crearía un ente con capacidades superiores a las humanas, transformado en un avatar, un holograma o un ser de luz. Llegado ese momento se habría alcanzado lo que llaman la inmortalidad cibernética o inmortalidad no trascendente.
Mientras transcurre el tiempo hacia los objetivos del proyecto Avatar 2045, ya se están llevando a cabo intentos de recuperar la memoria o la información cerebral de personas fallecidas mediante la congelación de su cerebro.
En el fondo todo esto es muy fantástico, increíble y extremadamente materialista en lo que se refiere al concepto de la mente humana, que no es reducible al cerebro. La conciencia humana no es reducible a materia, El razonamiento humano no es concreto ni automático, sino abstracto. No son simples respuestas instintivas o químicas, sino sujetas a una deliberación personal entre múltiples opciones.
En este sentido podemos citar las críticas de diversos autores, como Julian Sabulescu, Francis Fukuyama o Stephen Hawking.
Francis Fukuyama, en su obra sobre las consecuencias de la revolución biotecnológica, explica cómo el posthumanismo conduciría a la creación de castas, abriendo una brecha entre los humanos mejorados y los humanos naturales y que aquellos no tendrían por qué ser mejores ni peores en sus cualidades morales.
Stephen Hawking es más drástico, opina directamente que el posthumanismo supondrá el fin de la humanidad: «El desarrollo de una inteligencia artificial completa podría significar el fin de la raza humana. Despegaría por sí solo y se rediseñaría a un ritmo cada vez mayor. Los humanos, que están limitados por una lenta evolución biológica, no pudieron competir y ser reemplazados».
Lo que propone, el posthumanismo, de ser posible, trasciende lo que si se puede hacer con fines de mejorar la salud, especialmente utilizando los conocimientos de la genética y la biología celular. En las supuestas máquinas pensantes ya no habría ni genes, ni herencia, ni enfermedades que curar. Simplemente ya no habría seres humanos. Para los posthumanistas los futuros sucesores, que no descendientes del Homo sapiens, no serán de carne y hueso sino máquinas, robots, ciborgs o avatares, a base de chips, cables y nanopartículas. Tal vez inteligentes a su manera, y hasta se podrían clonar y tal vez inmortalizar, pero carecerían de sentimientos, amor y todo lo mejor que albergan los auténticos seres humanos.
La locura de esta desenfrenada carrera a no se sabe qué, se resume bien es estas palabras del médico y defensor de la vida Jérôme Lejeune: «Estamos ante un dilema que es el siguiente: la técnica es acumulativa, la sabiduría no. Seremos cada vez más poderosos. O sea, más peligrosos. Desgraciadamente no seremos cada vez más sabios». (2)
Nicolás Jouve. Catedrático Emérito de Genética
Miembro del Observatorio de Bioética. Ex miembro del Comité de Bioética de España
Presidente de CíViCa
domingo, 3 de septiembre de 2023
lunes, 12 de junio de 2023
El vicepresidente de Google que abandonó la compañía, reclama una regulación de la IA
Hinton, padrino de la inteligencia artificial, se arrepiente de haber desarrollado esta tecnología y advierte de los riesgos de su mal uso.
Geoffrey Hinton, padre de la Inteligencia Artificial (IA), ha dimitido como vicepresidente de Google tras dedicar una década a la investigación y desarrollo de esta tecnología. El célebre informático, tras su repentina salida, ha advertido de los riesgos de un mal uso de la IA y reclama su regulación, llamando a la prudencia ante la velocidad que está alcanzando este desarrollo tecnológico.
El experto en neurociencia computacional, Geoffrey Hinton, se suma a las advertencias lanzadas por líderes del sector de la IA como Steve Wozniak, Jaan Tallinn o Elon Musk sobre los peligros de que esta tecnología pueda prescindir del control humano y desarrollarse de forma autónoma.
El exejecutivo de Google, tras salir de la compañía, ha mostrado su preocupación sobre los contenidos producidos por herramientas vinculadas a la IA, concretamente, el ChatGPT o Dall-E, programas de inteligencia artificial que permiten obtener cualquier tipo de texto o imagen, respectivamente, solicitada por los usuarios.
Hinton teme que estas aplicaciones saturen internet de textos, vídeos y recursos fotográficos que puedan confundir a las personas hasta el punto de que no distingan lo real de lo virtual. Al líder informático le preocupa también el efecto perverso que puede tener esta tecnología en los ámbitos laboral y social. En declaraciones recogidas por Radio Televisión Española, Hinton ha confesado estar arrepentido de haber contribuido al despliegue y acelerado desarrollo de una poderosa herramienta que él mismo consideraba que tardaría entre 30 y 50 años en perfeccionarse sin perder el control de la potencialidad que brinda la IA. El científico exige echar el freno y que Google y Microsoft no vayan más lejos hasta tener la seguridad de que se dominen esta nueva tecnología. “Me consuelo con la excusa normal: si yo no lo hubiera hecho, alguien más lo habría hecho” ha explicado Hinton.
Desde un enfoque bioético personalista, la tecnología debe estar al servicio del ser humano y mejorar la vida de las personas, no a la inversa. El padre de la bioética personalista, Elio Sgreccia, considera que la ciencia y la tecnología no conocen la ética de los medios y de los fines. En este sentido, urgía a una simbiosis entre tecnología y humanismo, puesto que el poder científico nunca puede suplantar al ser humano.
sábado, 3 de junio de 2023
sábado, 27 de mayo de 2023
La lectura del pensamiento a través de la tecnología
La neurotecnología actual permite decodificar señales del lenguaje y motoras en personas que han perdido dichas capacidades, es decir, traducir señales cerebrales en palabras o acciones que el sujeto no puede expresar o ejecutar. Hasta el momento, la forma más efectiva de hacerlo es mediante implante de electrodos cerebrales con neurocirugía. Uno de los objetivos de la neurotecnología actual es conseguir métodos no invasivos para decodificar las señales cerebrales. Hasta el momento los métodos no invasivos solo decodificaban palabras aisladas o frases cortas.
Ahora, los departamentos de neurociencia y ciencias de la computación de la Universidad de Texas, Austin, en Estados Unidos, han desarrollado una nueva tecnología no invasiva capaz de reconstruir frases largas a través de resonancias magnéticas funcionales (fMRI), según publica la revista Nature Neuroscience.
Se utilizaron las respuestas cerebrales de siete sujetos voluntarios para concluir que el lenguaje natural se puede decodificar a partir de múltiples redes corticales en cada hemisferio. Se entrenó el modelo de decodificación con imágenes durante 16 horas de narración, para que éste fuera capaz de asociar las áreas activadas según cada frase. Posteriormente, los sujetos desarrollaron una narrativa libre, que la interfaz interpretó según el modelo aprendido con una precisión en la decodificación muy elevada.
En el estudio es necesaria la colaboración del sujeto para el entrenamiento del modelo, previo a que éste sea capaz de decodificar el pensamiento. Sin embargo, futuros desarrollos podrían superar esta necesidad.
Valoración bioética
El avance tecnológico se debe poner al servicio de las personas. Los dispositivos de decodificación han sido utilizados ya para recuperar la capacidad comunicativa de personas con enfermedades neurodegenerativas como la Esclerosis Lateral Amiotrófica. Sin embargo, cuando la tecnología avanza sin una fuerte reflexión bioética, corremos el riesgo de comprometer el concepto más holístico de persona. Entra en riesgo la intimidad, la privacidad y la propia dignidad de la persona. Aunque las limitaciones de la tecnología actualmente no permiten “leer” la mente sin la colaboración del sujeto y el entrenamiento debe realizarse para cada individuo, este avance es una llamada de atención sobre el tema de la privacidad mental.
Adina Roskies, filósofa científica de la Universidad de Dartmouth en Hanover, New Hampshire, afirma que, incluso si el decodificador no funciona bien, podrían surgir problemas si los abogados o los tribunales lo usan sin comprender sus limitaciones científicas. Por ejemplo, en el estudio actual, la frase ‘Acabo de saltar [del automóvil]’ se decodificó como ‘Tuve que empujarla fuera del automóvil’. “Las diferencias son lo suficientemente relevantes como para marcar una enorme diferencia en un caso legal”, dice Roskies. Jerry Tang y Alexander Huth, autores principales del trabajo, pidieron en una rueda de prensa que los legisladores aborden de manera proactiva cómo las tecnologías de lectura mental pueden y no pueden usarse legalmente (ver más aquí).
Sonia Pérez- Ruipérez Pérez, Ana Mendez Santos, Fulton Rivera, Andrea Ortiz Suñer. Alumnos del Master en Bioética-Universidad Católica de Valencia