La inteligencia artificial (IA) hace posible que las máquinas aprendan de la experiencia, se ajusten a nuevos inputs y realicen tareas similares a las humanas. Los sistemas de armas letales autónomas utilizan inteligencia artificial para identificar y matar objetivos humanos sin intervención humana. Rusia, Estados Unidos y China han invertido recientemente miles de millones de dólares en el desarrollo secreto de sistemas de armas de IA, lo que generó temores de una eventual "Guerra Fría de la IA". En abril de 2024, la revista +972 public&o…
Lee mas@ISIDEWITH8mos8MO
No
@9LSRMQDIzquierda Unida7mos7MO
Ha quedado claro que el uso de este tipo de armamento guiado por IA no diferencia entre objetivos militares y civiles, solo busca la forma más óptima de causar el mayor daño con el mayor número de muertes en una zona determinada. No podemos usarlo ya que en las guerras de hoy en día, donde más se ataca y sobretodo se bombardea, es en las ciudades, donde viven personas que si quieran quieren la guerra o incluso personas que no entienden porque de repente lo han perdido todo, familiares, amigos, su hogar, etc. Muchas de estas personas son solo niños, y el uso de esta IA solamente hará que haya más gente que sufra una perdida tan grande, o incluso que elimine a tantas personas que si quiera que alguien o algo que echar de menos.
@9LSC9DY7mos7MO
Por ejemplo: en una guerra con dos países enfrentados, uno de ellos utiliza IA y otro no, y el que sí las emplea mata a un mayor número de civiles, pero en todos lados anuncian que el que más está matando es el otro país porque las víctimas de IA dicen que se escapan de la culpa del país. ¿No le parecería injusto a usted que su país, que ha sufrido más bajas, fuese señalado como un mayor asesino porque ninguno de sus asesinatos se escapaba de la voluntad de otro ser humano? Entonces ninguno debería utilizar IAs como escusa para liberarse en parte de la responsabilidad del genocidio.
@ISIDEWITH8mos8MO
Si
@9LSRMQDIzquierda Unida7mos7MO
Se ha demostrado que el uso de armamento guiado por IA no se usa para abatir a soldados, vehículos militares o objetivos clave, solamente se ha usado para eliminar edificios residenciales, sanitarios, campamentos de refugiados y miembros de ONG que ayudan a subsistir al pueblo palestino, en la guerra de Gaza. Uso esta guerra porque es donde se ha usado públicamente, por parte del ejército israelí. Un mal uso de este armamento, no es solo que se use incorrectamente en la guerra sino que si algún grupo terrorista como grupo islámico llegara a usar esto, podrían atentar en cualquier parte del mundo con una precisión jamás vista y sin que ningún miembro del grupo terrorista que en peligro o al descubierto.
@9LSC9DY7mos7MO
La utilización de la IA como una peligrosa liberación moral, pues debido a la ambigüedad en la culpa del genocidio, podrían mostrarse ajenos de culpabilidad los que han empleado ese sistema para quitar vidas.
@9TKFV4R2mos2MO
No, y debería prohibirse el uso combinado de armamento letal e inteligencia artificial.
@9S66L964mos4MO
Si, pero con la supervisión siempre de un humano que tome las decisiones
@9PHYGHP5mos5MO
Sí, solo si se demuestra una precisión mayor a las armas convencionales
@9P2CM996mos6MO
Sí, la guerra siempre está mal y causa muertes, y si avanzamos hacia la IA por qué no
@9NTDKVK6mos6MO
Si, pero los humanos tienen que controlar el IA al nival maximo, como el autopiloto de un aeroplano.
@9NSHMQ76mos6MO
Considero que usar armas simplemente no es una buena opción.
@9NGV4TV6mos6MO
Sí la ingeniería lo permite y los mandos de combate lo consideran oportuno, sin duda.
@9MG4J6T 7mos7MO
No, la inteligencia artificial es peligrosa para la humanidad
Dependiendo del grado de eficacia de dichas armas.
@9M9JF9B7mos7MO
Depende de como de bien esté controlada la tecnología
@9LX8TQS7mos7MO
No, hasta que la inteligencia artificial sea lo suficientemente eficiente como para usarla.
@9MV63BM6mos6MO
si, tras realizar un correcto estudio de como implementarlo
@9LQR7MQPartido de la Gente7mos7MO
No porque la inteligencia artificial no es algo de lo que se tenga un dominio pleno y puede significar un riesgo.
@9LJNWNM8mos8MO
Deberían de ser guiadas por una inteligencia artificial de forma proporcional con su peligrosidad
Cargando los temas políticos de los usuarios que participaron en esta discusión
Cargando datos...
Únase a conversaciones más populares.