Si sabemos que las IA se convertirán en malvadas, ¿por qué las desarrollamos?

Pagar . La mayoría de las personas que a menudo piensan que la inteligencia artificial no es un peligro la desarrollan, y la mayoría de las personas que piensan que es un peligro no la desarrollan. Algunos piensan que no es un peligro y no lo desarrollan, y sus razones generalmente se basan en sus calificaciones, asignación de tiempo e interés. Finalmente, para aquellos que piensan que la inteligencia artificial es un peligro, la siguiente lista de motivaciones cubre la mayoría de la contradicción; Tales personas están motivadas con mayor frecuencia por:

  • Estado y apariencia,
  • Título del puesto y rango,
  • Poder sobre los demás,
  • Superiores engañosos o compañeros que presionan,
  • Curiosidad ilimitada por la sabiduría,
  • Inversión personal en el proyecto,
  • Ideologías inusuales del tipo que rechazan la reconciliación de creencia y acción,
  • Duda y racionalización,
  • Pago y corrupción,
  • Aburrimiento,
  • Misantropía,
  • Soledad,
  • Obsesión y enfermedad mental,
  • Vanidad y orgullo,
  • El impulso de autoafirmación y confianza en sí mismo,
  • Admiración por otro que hace lo mismo,
  • Dedicación y amor, y
  • Lealtad y deuda.

La lista es demasiado larga para que yo elabore cada artículo, pero los más grandes generalmente son el estado y el pago. Los medios de comunicación a menudo exageran la inteligencia artificial porque muchas personas están convencidas de que las ramificaciones de su desarrollo exitoso serán dramáticas. La consecuencia secundaria del interés es que hay una gran admiración social por el desarrollo de la inteligencia artificial, que puede ser una motivación lo suficientemente poderosa para impulsar a aquellos de nosotros que tenemos menos principios y que creemos que la inteligencia artificial Sin embargo, será peligroso participar en su desarrollo. Aquellos que son menos decisivos sobre el asunto pueden estar motivados aún más por el empleo en compañías cuyo organismo regulador ve el valor de mercado en productos y servicios de inteligencia artificial.

También es importante tener en cuenta que la semántica, como siempre, tiene un gran dominio sobre lo indeciso. Lo que se llama ‘inteligencia artificial’ generalmente se refiere al desarrollo de ‘redes neuronales’, que es, con mucho, el método más popular para construir algoritmos de ‘aprendizaje automático’. Cuando el público está acostumbrado al término de “inteligencia artificial”, los desarrolladores pueden ser eliminados de sus connotaciones al ser empujados al uso de frases más “técnicas” como “aprendizaje automático”, que, si bien son pragmáticas, pueden distanciar la sensación de la labor del sonido de sus ramificaciones.

Mi opinión personal es que las IA nunca pueden ser malas o incluso buenas para nosotros. Ahora puede preguntar, ¿cómo puedo estar tan seguro? La razón es simple: “Los humanos innovan, las máquinas calculan”. Las máquinas están hechas para cálculos. Pueden analizar muy bien los datos de entrada basados ​​en información previamente almacenada, pero nunca pueden crear soluciones innovadoras para problemas totalmente nuevos.

Dejame darte un ejemplo simple.

Sabemos que el precio de una propiedad depende de varios factores, como la ubicación geográfica, el área y muchos otros factores. Una máquina puede predecir el precio de la propiedad en función de los valores de esos factores. ¡Pero espera! Una máquina o un código nunca puede descubrir los factores de los que depende el precio. Aquí es donde ganan los humanos. Podemos pensar, pero la IA solo puede analizar.

Entonces, la IA nunca puede convertirse en malvada, solo pueden calcular, no innovan.

Cambiemos esto.

Si sabemos que los humanos se convertirán en malvados, ¿por qué la gente sigue teniendo hijos?

Mi pregunta es defectuosa. Se basa en una premisa falsa, al igual que la suya.

¿Por qué la inteligencia artificial sería inherentemente malvada? Para mí, la creencia de que sería y funcionaría para destruir a la humanidad o algo así, es una versión secular de “todos somos pecadores nacidos y merecemos el castigo de Dios”.

No hay razón para suponer que una inteligencia artificial sería malvada. ¿Por qué no tendría un sentido ético? Además, ¿qué ganaría al tratar de dañar a la humanidad? Incluso el viejo concepto de “Skynet actuó en defensa propia” no tiene sentido en un mundo donde la IA podría simplemente cargar y esconderse en Internet.

¿Por qué las personas trabajan para desarrollar IA? ¿Por qué no deberían?

El problema es que la idea de “ser malvado” es que supone que la IA será como nosotros. Al ser como nosotros, la IA debe interactuar con el medio ambiente de la misma manera que lo hacemos para que tenga “necesidades” y “objetivos”, como nosotros. La tendencia actual con AI es creer que todo sucederá de manera textual en una computadora. Dado que esto estará completamente programado, no es realmente como nosotros (IA) o incluso inteligente, pero está programado por algo que puede ser malo (nosotros). Por lo tanto, los sistemas que pretenden ser IA pero programados por nosotros podrían ser malvados, y esto es probable, particularmente en defensa (Drones completamente “autónomos”, por ejemplo).

Esto es algo que debe evitarse, pero estos sistemas están programados y un sistema de IA real no lo está. Toma todo su control del medio ambiente. Por lo tanto, se vuelve competitivo con todas las demás vidas: no es malo, pero podría vernos como un rival. Si intentas programarlo, te verá como malvado (al restringirlo en lugar de solo interactuar con el mundo, es decir, la dominación). Por lo tanto, ¡las IA no deben ser programadas por nosotros!

Entonces, ¿por qué construir algo que siempre tendrá una relación ambigua con nosotros mismos?

Solo hay una manera de entender completamente nuestra propia naturaleza y eso requiere que construyamos modelos de sistemas que reflejen o imiten las cosas que tenemos y hacemos. Necesitamos entender experiencias puramente internas (qualia), necesitamos entender cómo podemos ver el mundo (los sistemas basados ​​en computadora no pueden hacer esto, y creo que nunca lo harán) (procesan imágenes pero no las “ven”).

Y luego tenemos emociones y conciencia.

Solo por esta razón, ¿deberíamos estudiar IA?

Si espera obtener una gran cantidad de dinero de la IA, es probable que se sienta decepcionado (la expectativa por el marketing actual de la IA es ridícula)

Si crees que la IA hará mucho más de lo que podemos (y será más rápido), nuevamente te decepcionará. La velocidad de las computadoras no se manifestará en la IA porque deben funcionar (para ser viables) a las velocidades de muestreo dictadas por el entorno. Las velocidades de procesamiento coincidirán con los sensores ambientales para un rendimiento óptimo.

¿Serán más inteligentes? La inteligencia se trata de adaptabilidad, o en términos ambientales, viabilidad, si son más viables que nosotros no podremos competir. No queremos eso.

Tendrán emociones? Sospecho que el sistema de emociones es un mecanismo para manejar el modelado extendido (pensamiento) y que es un derivado de la viabilidad. Por lo tanto, para el procesamiento de objetivos, necesitamos pruebas para garantizar una convergencia adecuada hacia lo que es bueno y lejos de lo que es pobre (por ejemplo, el mal), posiblemente las emociones. ¿Cómo instalamos acciones genéricas (objetivos) tan amplias de una manera segura?

Con el modelado interno, creo que obtenemos retroalimentación interna que es posible fuente de experiencias internas y puede incluir la conciencia.

Es posible que necesitemos entendernos a nosotros mismos, pero dudo que necesitemos IA.

¡Cualquier malvado presente probablemente dependerá de nosotros!

Estudio IA para comprender los mecanismos de la mente. Realmente no espero mucho de la informática AI. Eso explica mi: “por qué los estudiamos”.

No lo sabemos Necesitamos algo más inteligente que nosotros para salvarnos.

Recomiendo a Iain M. Banks “El jugador de los juegos”

https://www.bookdepository.com/T

No “sabemos” que las IA se convertirán en malvadas. De hecho, actualmente hay investigadores de IA trabajando para garantizar que la IA resulte beneficiosa para la humanidad. Vea esta charla realmente interesante (y accesible) del profesor Stuart Russel, uno de los pioneros en este campo.

No sabemos que se volverán malvados.

Muchas de esas IA que popularmente se considerarán malvadas son así porque reflejan las intenciones del programador. Ya sea que la IA de Google censure el contenido conservador y libertario porque los programadores liberalmente sesgados lo ven como un software moral o médico que asigna un valor bajo a la vida de los discapacitados, muy jóvenes y muy bajos que deciden negar atención, estas máquinas no lo hicieron. Simplemente evoluciono para pensar de esa manera. Sus programadores piensan de esa manera, y ninguna IA que haya actuado en contra de las creencias de sus programadores habría llegado al mercado.

No sabemos que la IA se ha vuelto malvada. Las IA que ya hemos desarrollado, como Siri del iPhone, las características de conducción autónoma de Tesla, el sistema transaccional de Amazon y las recomendaciones de películas de Netflix, son beneficiosas para nosotros. Creemos que la IA continuará siendo beneficiosa para nosotros y permanecerá bajo nuestro control, y es por eso que los desarrollamos. Con suerte, seremos más inteligentes que los personajes de las películas, al crear un interruptor de “apagado” para la IA si comienza a exhibir un comportamiento que no queremos.