NORMAS SOBRE COMENTARIOS: Los comentarios de infraseres no se publican, no pierdas tu tiempo...........................................

15 jun. 2016

ARGUMENTO:
"Las máquinas también pueden tener una conciencia"

RESUMEN: ¿Qué es la conciencia? ¿cómo se origina? ¿puede tener conciencia un ser inerte? ¿es posible que un software de inteligencia artificial tenga conciencia? Éstas son algunas de las preguntas a las que aquí vamos a responder.

Cada ser que tiene conciencia sólo puede demostrársela a sí mismo, razón por la cual las conciencias ajenas se infieren lógicamente mediante el uso de analogías. Mientras que podemos inferir la existencia de conciencia en seres biológicamente similares a uno mismo (existencia de SNC, respuestas fisiológicas, respuestas químicas, encefalograma, etc.), existe un abismo entre una conciencia humana y un software de inteligencia artificial, por lo que toda inferencia de conciencia en un software es arbitraria y se reduce a afirmar la existencia de conciencia en simuladores de conciencia.

Palabras clave: conciencia, emergencia, inteligencia artificial, mecanicismo, robótica

Lo que diferencia a las personas de las cosas es que las personas son seres que tienen una conciencia y las cosas no la tienen; a usar dicho criterio diferenciador persona-cosa se llama sensocentrismo[1]. La Ética nos dice que, a priori, los intereses de las personas no deben ser frustrados[2], independientemente de que supongamos que las personas tienen libre albedrío o supongamos que están determinadas[3]. ¿Puede originarse una conciencia en un software de inteligencia arficial (IA)?

Existen dudas sobre la naturaleza de la conciencia y no se sabe con seguridad si la consciencia como fenómeno cognitivo es sólo el resultado de la complejidad computacional o de otros factores. Roger Penrose se ha ocupado del problema de la realidad física de la inteligencia y ha analizado diversas pretensiones teóricas por parte de la inteligencia artificial de simular o construir artefactos que posean algún tipo de consciencia. Penrose clasifica las cuatro posturas actuales ante la cuestión de si la conciencia es o no es computable algorítmicamente:

A. Todo pensamiento es un proceso de computación, es decir, en particular la percepción de uno mismo y la autoconciencia son procesos emergentes que son resultado directo de la computación o algoritmo adecuados. Muchos investigadores del campo de la inteligencia artificial, en particular los más optimistas sobre sus logros, se adhieren a esta postura según la cual la un software de inteligencia artificial puede tener conciencia.

B. La conciencia es una consecuencia del tipo de acción física que ocurre en el cerebro, y aunque cualquier acción física puede simularse apropiadamente a través de medios computacionales; el hecho de que se lleve a cabo un proceso de simulación computacional del cerebro no comportaría, por sí mismo, la aparición auténtica de la autoconciencia. John Searle sería un partidario de la postura.

C. La realización de cierta actividad física en el cerebro es lo que lleva a la aparición de la autoconciencia en el ser humano; sin embargo, aunque puede ser reproducida artificialmente, dicha acción no puede simularse algorítmicamente. Roger Penrose ha argumentado fuertemente esta postura, relacionándola con otros problemas abiertos de la física como la teoría cuántica de la gravedad.


D. La conciencia de tipo humano no puede entenderse propiamente en términos físicos, computacionales o científicos de otro tipo. Ésta es la postura que normalmente adoptan las religiones.


Algunas personas dicen que la conciencia se origina de la materia si existe la suficiente complejidad de procesamiento de información, aunque la base material no sea biológica. Según estas personas, si alcanza una determinada complejidad de procesamiento de información entonces la materia se vuelve consciente, independientemente del sustrato material utilizado para realizar dicho procesamiento. Por ejemplo, podemos encontrar esta idea en el artículo «Why Digital Sentience is Relevant to Animal Activists», escrito por Brian Tomasik, publicado el 3 de febrero de 2015 en la web Animal Charity Evaluators. También la organización antiespecista Ética Animal, en referencia al proyecto Robobee de la Universidad de Harvard, publicaba el 28 de mayo de 2015 una nota en Facebook sobre su posicionamiento respecto a esta cuestión: «si fabricas una réplica exacta del sistema nervioso de un ser sintiente, esa réplica será capaz de realizar exactamente las mismas funciones que tal sistema nervioso. Y algunas de esas funciones son las que hacen que tal ser sea sintiente». El argumento que usan estas personas falla debido a que cada ser que tiene conciencia sólo puede demostrársela a sí mismo, razón por la cual las conciencias ajenas se infieren lógicamente mediante el uso de analogías. Mientras que podemos inferir la existencia de conciencia en seres biológicamente similares a uno mismo (existencia de SNC, respuestas fisiológicas, respuestas químicas, encefalograma, etc.), existe un abismo entre una conciencia humana y un software de Inteligencia Artificial, por lo que toda inferencia de conciencia en un software es arbitraria y se reduce a afirmar la existencia de conciencia en simuladores de conciencia.



Robot conversacional Jules (Link)