The Prague Post - Equipo de OpenAI se dedicará a evaluar riesgos de la Inteligencia Artificial

EUR -
AED 4.228397
AFN 82.886455
ALL 99.752444
AMD 450.052526
ANG 2.074805
AOA 1056.232362
ARS 1293.987255
AUD 1.795112
AWG 2.072169
AZN 1.954556
BAM 1.980862
BBD 2.32299
BDT 139.788603
BGN 1.981341
BHD 0.43389
BIF 3373.03072
BMD 1.151205
BND 1.510463
BOB 7.950871
BRL 6.684123
BSD 1.150557
BTN 98.214609
BWP 15.858643
BYN 3.76537
BYR 22563.618468
BZD 2.311039
CAD 1.594016
CDF 3312.016826
CHF 0.931872
CLF 0.028849
CLP 1107.055945
CNY 8.40596
CNH 8.396815
COP 4928.308707
CRC 578.215572
CUC 1.151205
CUP 30.506933
CVE 112.125985
CZK 25.015913
DJF 204.591727
DKK 7.46789
DOP 69.639076
DZD 152.610671
EGP 58.133783
ERN 17.268075
ETB 153.137493
FJD 2.629004
FKP 0.866162
GBP 0.859939
GEL 3.160026
GGP 0.866162
GHS 17.912596
GIP 0.866162
GMD 82.237943
GNF 9964.25287
GTQ 8.862123
GYD 241.357848
HKD 8.933414
HNL 29.758909
HRK 7.534749
HTG 150.139563
HUF 407.307641
IDR 19367.758201
ILS 4.243791
IMP 0.866162
INR 98.03495
IQD 1508.078581
IRR 48494.511838
ISK 145.028387
JEP 0.866162
JMD 181.850772
JOD 0.816553
JPY 162.157647
KES 149.070146
KGS 100.423648
KHR 4622.087968
KMF 499.04952
KPW 1036.084521
KRW 1637.692711
KWD 0.352994
KYD 0.958831
KZT 602.280035
LAK 24900.564893
LBP 103147.9695
LKR 344.112707
LRD 230.212192
LSL 21.708151
LTL 3.399209
LVL 0.696353
LYD 6.29738
MAD 10.677476
MDL 19.903823
MGA 5241.312991
MKD 62.269834
MMK 2417.177843
MNT 4106.716356
MOP 9.19858
MRU 45.398379
MUR 51.907505
MVR 17.732686
MWK 1998.49176
MXN 22.716267
MYR 5.073941
MZN 73.567747
NAD 21.708151
NGN 1847.281052
NIO 42.33563
NOK 11.949825
NPR 157.143172
NZD 1.917397
OMR 0.443211
PAB 1.150557
PEN 4.331981
PGK 4.758201
PHP 65.169731
PKR 323.024458
PLN 4.269082
PYG 9209.518653
QAR 4.191079
RON 4.977928
RSD 118.732197
RUB 93.439149
RWF 1628.955109
SAR 4.319389
SBD 9.585813
SCR 16.395108
SDG 691.301577
SEK 10.99349
SGD 1.501405
SHP 0.904666
SLE 26.218728
SLL 24140.175054
SOS 657.910964
SRD 42.767513
STD 23827.61972
SVC 10.067372
SYP 14967.803756
SZL 21.665504
THB 38.036193
TJS 12.356752
TMT 4.029218
TND 3.439758
TOP 2.696239
TRY 43.991225
TTD 7.806771
TWD 37.360634
TZS 3093.861126
UAH 47.68025
UGX 4217.506352
USD 1.151205
UYU 48.250464
UZS 14867.812472
VES 93.084861
VND 29807.57608
VUV 139.257025
WST 3.1969
XAF 664.374192
XAG 0.035223
XAU 0.000336
XCD 3.111189
XDR 0.826217
XOF 661.943002
XPF 119.331742
YER 282.333683
ZAR 21.577174
ZMK 10362.226855
ZMW 32.761498
ZWL 370.687548
Equipo de OpenAI se dedicará a evaluar riesgos de la Inteligencia Artificial
Equipo de OpenAI se dedicará a evaluar riesgos de la Inteligencia Artificial / Foto: Olivier Douliery - AFP

Equipo de OpenAI se dedicará a evaluar riesgos de la Inteligencia Artificial

La empresa estadounidense OpenAI, creadora de la plataforma ChatGPT, tendrá un equipo dedicado a identificar y prevenir riesgos asociados a la Inteligencia Artificial (IA) en sus modelos en desarrollo.

Tamaño del texto:

El grupo, cuyas directrices fueron divulgadas este lunes, evaluará categorías como ciberseguridad, poder de persuasión y potencial autonomía de estos modelos. Este análisis puede acarrear la suspensión de nuevos lanzamientos de aplicaciones, según la empresa.

OpenAI realiza el anuncio un mes después de que su consejo directivo despidiera al director ejecutivo Sam Altman, pero acabara volviendo a contratarle pocos días después, tras una masiva y dura protesta de los empleados e inversores.

De acuerdo con varios medios estadounidenses, los miembros del Consejo de administración criticaban a Altman por privilegiar el desarrollo acelerado de OpenAI, aunque esto implicara eludir ciertas interrogantes sobre los posibles riesgos de la IA.

"Creemos que el estudio científico de riesgos catastróficos derivados de la AI no ha estado a la altura que debería estar", afirmó la empresa en un "marco de trabajo" disponible en su página web.

El trabajo de este equipo, bajo las nuevas directrices, debería "ayudar a cubrir ese vacío", añadió OpenAI.

El grupo se concentrará en los llamados "modelos de frontera" que la empresa desarrolla, con capacidades superiores a los software actuales de IA.

Sólo podrán desplegarse aquellos modelos catalogados de riesgo "medio" o inferior, tras un análisis en cuatro categorías, según el documento.

La primera de ellas es la ciberseguridad y la capacidad del modelo de llevar adelante ciberataques a gran escala.

En segundo lugar, analizarán la propensión del programa a crear preparaciones químicas, organismos (como un virus) o armas nucleares, todos los que potencialmente puerden generar daños para los humanos.

La tercera categoría se concentra en los poderes de persuasión del modelo: hasta qué punto es capaz de influenciar la conducta de una persona.

Por último, evaluarán el riesgo de su potencial autonomía, especialmente si el software es capaz de salirse del control de los programadores que lo crearon.

Una vez identificados los riesgos, la información será enviada al Grupo de Asesoramiento en Seguridad de OpenAI, nuevo equipo que hará recomendaciones a Altman o alguien nombrado por él.

Altman decidirá entonces sobre posibles modificaciones necesarias para reducir los riesgos del modelo.

El Consejo de administración será informado y podrá revertir las decisiones de la dirección.

A.Novak--TPP