Anuncio
Mercados españoles cerrados en 2 hrs 17 min
  • IBEX 35

    11.407,00
    +85,00 (+0,75%)
     
  • Euro Stoxx 50

    5.028,81
    +45,14 (+0,91%)
     
  • Dólar/Euro

    1,0852
    -0,0002 (-0,02%)
     
  • Petróleo Brent

    81,58
    -0,04 (-0,05%)
     
  • Oro

    2.354,10
    +8,30 (+0,35%)
     
  • Bitcoin EUR

    64.163,38
    +1.626,48 (+2,60%)
     
  • CMC Crypto 200

    1.499,60
    +31,67 (+2,16%)
     
  • DAX

    18.679,23
    +181,29 (+0,98%)
     
  • FTSE 100

    8.307,61
    +32,23 (+0,39%)
     
  • S&P 500

    5.277,51
    +42,03 (+0,80%)
     
  • Dow Jones

    38.686,32
    +574,82 (+1,51%)
     
  • Nasdaq

    16.735,02
    -2,08 (-0,01%)
     
  • Petróleo WTI

    76,75
    -0,24 (-0,31%)
     
  • EUR/GBP

    0,8519
    +0,0006 (+0,08%)
     
  • Plata

    30,64
    +0,19 (+0,64%)
     
  • NIKKEI 225

    38.923,03
    +435,13 (+1,13%)
     

CEO de Microsoft quiere que dejemos de “antropomorfizar” la IA

(Bloomberg) -- Una semana después de que OpenAI presentara un asistente personal que puede reír, cantar y hablar con una combinación de voces diferentes, el socio más cercano de la empresa ofreció una visión sutilmente diferente de cómo las personas deberían interactuar con las herramientas de inteligencia artificial.

Lo más leído de Bloomberg

“No me gusta antropomorfizar la IA”, dijo el lunes el director ejecutivo de Microsoft Corp., Satya Nadella, a Bloomberg Television, refiriéndose a la práctica de utilizar verbos y sustantivos que normalmente están reservados para las personas para describir la IA. “En cierto modo creo que es una herramienta”.

ANUNCIO

Inicia tu día bien informado con el boletín #CincoCosas. Suscríbete gratis aquí.

Los comentarios de Nadella insinúan un debate en curso en la industria tecnológica sobre hasta qué punto humanizar los servicios de IA en un momento en que la tecnología avanza y responde de maneras que parecen más humanas. La semana pasada, un ejecutivo de Google le dijo a Bloomberg que si bien es posible crear herramientas de inteligencia artificial que “muestren emociones”, la compañía prefiere centrarse en “que súper útiles”.

OpenAI ha adoptado un enfoque diferente. La compañía presentó la semana pasada un nuevo asistente de voz que, según dijo, puede comprender las emociones y expresar sus propios sentimientos. En varios puntos de la presentación, la voz de la IA pareció coquetear con el empleado que usaba la herramienta en el escenario. Muchos usuarios en las redes sociales compararon la función con la película distópica “Her”, una comparación impulsada por una opción de voz en particular que, según los usuarios, se parecía a la de la estrella de la película, Scarlett Johansson.

Johansson declaró a NPR que el director ejecutivo de OpenAI, Sam Altman, se había puesto en contacto con ella para pedirle que considerara expresar una función de chat de audio. Según Johansson, Altman trató de venderle la idea de que podría “ayudar a los consumidores a sentirse cómodos con el cambio sísmico en relación con los seres humanos y la IA”. Johansson se negó y dijo que se vio obligada a contratar abogados por la decisión de OpenAI de seguir adelante con una voz de sonido similar (OpenAI retiró desde entonces la voz y la sustituyó por otra).

Incluso antes de que ChatGPT introdujera la IA en la conciencia general, las empresas tecnológicas a menudo conferían personalidades humanas a los programas de IA, normalmente con nombres y características codificados en femenino, en un aparente esfuerzo por ayudar a la gente a conectar y sentirse cómoda con la tecnología. El Microsoft de Nadella tampoco ha sido inmune a ese comportamiento. A lo largo de los años, la compañía lanzó varios programas conversacionales y de IA, incluidos Tay y Cortana, que llevan el nombre del asistente de IA con apariencia femenina de Halo. ¿Y quién puede olvidar a Sídney, el pícaro personaje de Bing AI?

Existe una tendencia natural por querer describir la inteligencia artificial en términos humanos, ya que la gente trata de explicar las matemáticas, los números y el código que hay detrás del software de forma que los usuarios se sientan identificados, diciendo cosas como que la IA “aprende”. Esa tentación no hará sino aumentar a medida que las empresas tecnológicas lancen productos más capaces de mantener conversaciones en tiempo real.

Pero en la entrevista, Nadella dijo que los usuarios deben ser conscientes de que las capacidades que muestra el software de IA no son inteligencia humana. “Tiene inteligencia, si quieres llamarla así, pero no es la misma inteligencia que tengo yo”, dijo.

De hecho, Nadella llegó incluso a lamentar la elección del término “inteligencia artificial”, acuñado por primera vez en la década de 1950. “Creo que uno de los nombres más desafortunados es ‘inteligencia artificial’; desearía que lo hubiéramos llamado ‘inteligencia diferente’”, dijo. “Porque tengo mi inteligencia. No necesito ninguna inteligencia artificial”.

Nadella dice que solo quiere que el software de IA le ayude cuando él lo desee. “Creo que esa es la relación ideal”.

Traducido por Paola Torre.

Nota Original: Microsoft’s Nadella Wants Us to Stop Treating AI Like Humans

MÁS CONTENIDO EN ESPAÑOL:

  • Bloomberg en Español en YouTube

  • Síganos en X en @BBGenEspanol

  • Conozca nuestro canal de WhatsApp

  • Y también TikTok @bloombergenespanol

©2024 Bloomberg L.P.