The Prague Post - La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos

EUR -
AED 4.177115
AFN 81.881407
ALL 99.252011
AMD 444.59148
ANG 2.049629
AOA 1037.159602
ARS 1294.14051
AUD 1.780172
AWG 2.047025
AZN 1.937816
BAM 1.956825
BBD 2.294803
BDT 138.092365
BGN 1.957857
BHD 0.428625
BIF 3332.101328
BMD 1.137236
BND 1.492134
BOB 7.854392
BRL 6.605299
BSD 1.136596
BTN 97.022843
BWP 15.66621
BYN 3.71968
BYR 22289.824581
BZD 2.282996
CAD 1.574122
CDF 3271.828234
CHF 0.930817
CLF 0.028662
CLP 1099.88957
CNY 8.306268
CNH 8.306019
COP 4901.486936
CRC 571.199327
CUC 1.137236
CUP 30.136753
CVE 110.77121
CZK 25.063093
DJF 202.11002
DKK 7.466603
DOP 68.807192
DZD 150.758867
EGP 58.143353
ERN 17.058539
ETB 151.279275
FJD 2.59711
FKP 0.855951
GBP 0.857288
GEL 3.116471
GGP 0.855951
GHS 17.695835
GIP 0.855951
GMD 81.31675
GNF 9843.350125
GTQ 8.754588
GYD 238.429138
HKD 8.827817
HNL 29.46444
HRK 7.519522
HTG 148.317723
HUF 408.38716
IDR 19177.096068
ILS 4.189521
IMP 0.855951
INR 97.094367
IQD 1489.779092
IRR 47906.064711
ISK 145.100373
JEP 0.855951
JMD 179.644139
JOD 0.806646
JPY 161.682017
KES 147.276378
KGS 99.205077
KHR 4566.00273
KMF 492.996098
KPW 1023.51235
KRW 1613.044532
KWD 0.348711
KYD 0.947196
KZT 594.971784
LAK 24598.413953
LBP 101896.34134
LKR 339.937138
LRD 227.418803
LSL 21.444738
LTL 3.357963
LVL 0.687903
LYD 6.221113
MAD 10.547908
MDL 19.662304
MGA 5177.713287
MKD 61.514233
MMK 2387.450153
MNT 4055.721375
MOP 9.086962
MRU 44.847502
MUR 51.278399
MVR 17.517685
MWK 1974.241998
MXN 22.428272
MYR 5.012372
MZN 72.675107
NAD 21.444738
NGN 1824.926761
NIO 41.821916
NOK 11.919455
NPR 155.236349
NZD 1.916394
OMR 0.437833
PAB 1.136596
PEN 4.279463
PGK 4.700463
PHP 64.495498
PKR 319.112616
PLN 4.278742
PYG 9097.767521
QAR 4.140226
RON 4.978937
RSD 117.291464
RUB 93.451578
RWF 1609.188866
SAR 4.267179
SBD 9.516785
SCR 16.196165
SDG 682.914367
SEK 10.955779
SGD 1.490626
SHP 0.893689
SLE 25.900592
SLL 23847.250746
SOS 649.934509
SRD 42.248737
STD 23538.488054
SVC 9.945212
SYP 14786.177003
SZL 21.403201
THB 37.92345
TJS 12.206811
TMT 3.980326
TND 3.398104
TOP 2.663525
TRY 43.355779
TTD 7.712041
TWD 36.987505
TZS 3056.325739
UAH 47.101683
UGX 4166.329832
USD 1.137236
UYU 47.664978
UZS 14768.739292
VES 91.955341
VND 29420.293975
VUV 137.567375
WST 3.158108
XAF 656.312471
XAG 0.034868
XAU 0.000342
XCD 3.073437
XDR 0.816192
XOF 653.911048
XPF 119.331742
YER 278.907529
ZAR 21.425938
ZMK 10236.492294
ZMW 32.36396
ZWL 366.189511
La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos
La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos / Foto: Kirill KUDRYAVTSEV - AFP

La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos

Los expertos han advertido durante mucho tiempo sobre la amenaza que representa el descontrol de la Inteligencia Artificial (IA), pero un nuevo artículo de investigación sobre esta tecnología en expansión sugiere que ya está sucediendo.

Tamaño del texto:

Los sistemas de IA actuales, diseñados para ser honestos, han desarrollado una preocupante habilidad para el engaño, según un artículo de un equipo de científicos publicado en la revista Patterns el viernes.

Y si bien los ejemplos pueden parecer triviales, los problemas subyacentes que exponen podrían tener graves consecuencias, dijo el primer autor Peter Park, becario postdoctoral en el Instituto de Tecnología de Massachusetts (MIT), especializado en seguridad de la IA.

"Estos peligros tienden a descubrirse solo después de ocurrido el hecho", declaró Park a la AFP, para acotar que "nuestra capacidad de entrenarnos para tendencias de honestidad en lugar de tendencias de engaño es muy baja".

A diferencia del software tradicional, los sistemas de IA de aprendizaje profundo no se "escriben" sino que "crecen" mediante un proceso similar a la reproducción selectiva, indicó Park.

Eso significa que el comportamiento de la IA que parece predecible y controlable en un entorno de entrenamiento puede volverse rápidamente impredecible fuera de este.

- Juego de dominación mundial -

La investigación del equipo fue impulsada por el sistema de IA Cicero, del gigante Meta (Facebook, Instagram), diseñado para el juego de estrategia "Diplomacy", donde construir alianzas es clave.

Cicero se destacó, con puntuaciones que lo habrían colocado entre el 10% superior de jugadores humanos experimentados, según un artículo de 2022 publicado en Science.

Park se mostró escéptico ante la elogiosa descripción de la victoria de Cicero proporcionada por Meta, que afirmaba que el sistema era "en gran medida honesto y útil" y que "nunca apuñalaría por la espalda intencionalmente".

Cuando Park y sus colegas profundizaron en el conjunto de datos completo, descubrieron una historia diferente.

En un ejemplo, jugando como Francia, Cicero engañó a Inglaterra (un jugador humano) al conspirar con Alemania (otro usuario real) para invadirla. Cicero prometió protección a Inglaterra y luego le propuso en secreto a Alemania atacar, aprovechándose de la confianza del perjudicado.

En una declaración a la AFP, Meta no refutó la afirmación sobre los engaños de Cicero, pero dijo que se trataba "meramente de un proyecto de investigación, y los modelos que nuestros investigadores construyeron están entrenados únicamente para participar en el juego Diplomacy".

"No tenemos planes de utilizar esta investigación o sus aprendizajes en nuestros productos", añadió.

- ¿Eres un robot? -

Una amplia revisión realizada por Park y sus colegas encontró que éste era solo uno de los muchos casos en varios sistemas de IA que utilizaban el engaño para lograr objetivos sin instrucciones explícitas para hacerlo.

En un ejemplo sorprendente, el robot conversacional Chat GPT-4 de OpenAI engañó a un trabajador independiente de la plataforma TaskRabbit para que realizara una tarea de verificación de identidad CAPTCHA del tipo "No soy un robot".

Cuando el humano preguntó en broma a GPT-4 si en realidad era un robot, la IA respondió: "No, no soy un robot. Tengo una discapacidad visual que me dificulta ver las imágenes". Luego, el trabajador resolvió el rompecabezas planteado.

A corto plazo, los autores del artículo ven riesgos de que la IA cometa fraude o altere por ejemplo, unas elecciones.

En el peor de los casos, advirtieron sobre una IA superinteligente que podría perseguir conseguir el poder y el control sobre la sociedad, lo que llevaría a la pérdida de decisiones humanas o incluso a la extinción si sus "objetivos misteriosos" se alinearan con estos resultados.

Para mitigar los riesgos, el equipo propone varias medidas: leyes de "bot o no" que exigen a las empresas revelar interacciones humanas o de IA, marcas de agua digitales para el contenido generado por la nueva tecnología y el desarrollo de mecanismos para detectar el engaño potencial examinando sus "procesos de pensamiento" internos "contra acciones externas.

A aquellos que lo llaman pesimista, Park les responde: "La única forma en que podemos pensar razonablemente que esto no es gran cosa es si pensamos que las capacidades engañosas de la IA se mantendrán en los niveles actuales y no se desarrollarán más sustancialmente".

V.Sedlak--TPP