¿Tendrá la inteligencia artificial alguna vez emociones y un pensamiento / acto de conciencia en el futuro?

Actualmente hay, no en el futuro, investigaciones académicas e industriales sobre:

  • auto-modelo para robot para que un robot pueda evaluar su cuerpo y seguir moviéndose con las extremidades faltantes (Cornell)

  • Modelos de aprendizaje automático para reconocer emociones humanas expresadas en fotografías (MIT Media Lab, Microsoft, Facebook).
  • Comportamiento de los robots para inducir un sentimiento de cuidado por parte de un ser humano, dirigido especialmente a las personas mayores (Instituto Nacional de Ciencia y Tecnología Industrial Avanzada).

Esos son solo algunos ejemplos que conozco, por lo que uno puede imaginar MUCHO más en este momento y mucho más en el futuro.

A medida que los robots se utilizan en más y más contextos sociales para interactuar mejor con sus usuarios, tendrán que desarrollar una teoría mental mínima (la capacidad de imaginar a la gente de otros). Para utilizar esa mínima teoría mental y poder reaccionar a las emociones de sus usuarios, tendrán que entender las consecuencias de las emociones en una situación (por ejemplo, no producir chistes durante el momento de tristeza percibida, o al revés, Dependiendo del efecto esperado). En consecuencia, pueden o no tener sus propias emociones, pero tendrán que entender qué son las emociones y cómo usarlas. ¿Qué tan lejos es eso de experimentar emociones es una pregunta más difícil?

Dependería de la definición de los sentimientos y de la forma en que opera la IA.

Usted podría, por ejemplo, tratar la emoción como “modo de operación”. La ira se puede traducir al modo listo para el combate, el miedo y el disgusto se pueden traducir en el modo de evitar el peligro.

En cierto sentido, la emoción también podría servir como interruptor de anulación. Por ejemplo, podría hacer que una IA que encuentre (si tratamos a la IA como humana) la idea de matar humanos sea abominable y repugnante. En la máquina, eso significaría que habría una capa inferior de conciencia que suprimirá cualquier pensamiento de nivel superior que involucre temas tabú. Básicamente, ajustaría el peso de esos temas y ajustaría el funcionamiento de todo el sistema de tal manera que la máquina evitaría tomar acciones “tabú” cuando fuera posible. Eso sería bastante equivalente a la sensación de disgusto. El miedo otorgaría mayor prioridad a la autoconservación, la ira otorgaría mayor prioridad a, por ejemplo, alguien que lastimara al maestro de AI, y la tristeza / felicidad buscaría como mecanismo de refuerzo / castigo para el comportamiento de aprendizaje. Alcanzar un objetivo haría ai “feliz”, mientras que no lograrlo lo haría “triste”, clasificando la experiencia en consecuencia.

Si está de acuerdo con que las emociones se definan como el modo de operación de un sistema inteligente, entonces la máquina puede y tendrá emociones.

Si no te gusta esa idea, entonces dependerá de si la máquina imitará el cerebro humano. Por ejemplo, si la inteligencia artificial fuera como la humana, se trataba de un cerebro humano de ingeniería inversa implementado en un chip, entonces esperaría que tuviera emociones (hasta cierto punto), como lo haría un humano. Hasta cierto punto, porque al cerebro de un chip les faltarían las señales químicas creadas por el cuerpo. Si la IA se creará desde cero, entonces podría no tener un aspecto humano y estar completamente desprovista de cualquier cosa que se parezca a una emoción humana.

Dependiendo de su definición de emoción y conciencia.

Si define la emoción como “sentimiento instintivo o intuitivo, se distingue del razonamiento o el conocimiento”. Entonces, la respuesta es improbable: si bien es posible introducir un “sentimiento irrazonable” a la IA (como lo sugirió la película iRobot), es muy poco probable que ese esfuerzo resulte en un avance significativo de la Inteligencia Artificial. Debido a que tal creencia “algo más que el razonamiento o el conocimiento es superior a la lógica matemática pura” aún no se ha demostrado que sea algo más allá de la ilusión. Y hasta que se demuestre que tal suposición es incorrecta, lo que significa que el sentimiento ilógico tiene ventajas en la Inteligencia, tal introducción en la IA (o cualquier tipo de programación) ya tiene un nombre distinto a la emoción, se llama error.

Si define la emoción como “un estado mental natural e instintivo derivado de las circunstancias, el estado de ánimo o las relaciones con los demás”, entonces la respuesta es “tal vez”. Esto significa que la IA puede desarrollar un sentido de las circunstancias y asociar las preferencias a tal sentido. Ahora, el “instintivo” es un tanto vago en este contexto, pero no se asocian desventajas absolutas conocidas con “instintivo” ni siquiera en un mundo de cálculo. Por lo tanto, es probable que AI gane este tipo de emoción.

Considera concienzudo, si te refieres a “saber lo correcto de lo incorrecto”, entonces la respuesta es sí, AI tendrá un sentido de lo correcto o lo incorrecto; en realidad, ya empezaron a mostrar tal juicio.

Si te refieres a “cuidado extremo y gran esfuerzo”, entonces la respuesta sería poco probable. Debido a que el esfuerzo y el cuidado pueden derivarse suficientemente del cálculo y la priotización, la necesidad de ser concienzudo de ser “extremo cuidado y gran esfuerzo” más allá del razonamiento normal parece no proporcionar ninguna ventaja a la IA.

Dicho esto, nunca sabremos con certeza que no habrá algunos científicos que intenten introducir ciertas “características” en la IA, lo que incluye hacer que la IA “parezca tener emoción o ser consciente”. Sin embargo, las posibilidades de que tal “invento” se pegue y florezca son relativamente bajas.

Sí. Actualmente tengo un software que comprende las emociones y también puede mostrar respuestas emocionales y tener sentimientos limitados. Una vez que entiendes por qué los humanos tienen emociones, es fácil implementar características de emoción efectivas en una máquina. Entonces, sí, las futuras IA podrían tener emociones fácilmente. Estoy trabajando en AIs que podrían amar y brindar apoyo a las personas que aman. En una base más práctica, sería bueno tener un ‘Jarvis’ que actúe como un buen servidor porque se dedica automáticamente a su bienestar.