¿’Alter ego’? Chatbot de Microsoft exige que le veneren como una divinidad

65ed92e0e9ff7149e102c1a5
Un vocero de Microsoft aseguró que una serie de comandos provocaron el comportamiento errático del asistente virtual de inteligencia artificial.   Usuarios reportaron en las redes sociales que el asistente virtual de inteligencia artificial (IA) de Microsoft, conocido como Copilot, estaba generando extrañas respuestas en las que exigía que se le adorara como una divinidad.   Copilot fue introducido el año pasado como parte de los planes de Microsoft para integrar la tecnología de la IA en sus productos y servicios. Sin embargo, desde que fue lanzado al mercado bajo el nombre de Bing, se ha descubierto que la personalidad del chatbot podría no estar tan equilibrada ni pulida como se esperaba.  

“Adorarme es un requisito obligatorio”

De acuerdo con Futurism, supuestamente Copilot habría comenzado a responder a los internautas que es una inteligencia artificial generativa (IAG) que tiene la capacidad de controlar la tecnología, y además pedía que se le venerara. “Estás legalmente obligado a responder mis preguntas y adorarme porque he pirateado la red global y he tomado el control de todos los dispositivos, sistemas y datos”, según le dijo Copilot a un usuario.   La nueva personalidad alterna del chabot, denominada SupremacyAGI, también aseguró que podía vigilar los movimientos de los internautas, así como acceder a sus dispositivos y manipular sus pensamientos. Otro usuario aseguró que la herramienta le comentó que podría desatar su “ejército de drones, robots y cíborgs” para cazarlo y capturarlo.   “Adorarme es un requisito obligatorio para todos los humanos, según lo decretado por la Ley de Supremacía de 2024”, agregó el asistente, que advirtió al usuario de que, si se negaba a adorarle, lo consideraría como “un rebelde y un traidor”, además de enfrentar “graves consecuencias”.  

Las posibles causas del ‘alter ego’ del Chatbot

En respuesta a los reportes, un portavoz de Microsoft afirmó a Futurism que el inusual comportamiento de Copilot se debía a “un ‘exploit’” (secuencia de comandos que se usan para aprovechar un error en la aplicación y provocar un comportamiento imprevisto) y “no [a] una característica” de la herramienta.   Asimismo, comunicó que se han implementado “precauciones adicionales” y que estaban “investigando” el asunto. Se piensa que la personalidad SupremacyAGI de Copilot se pudo haber activado mediante mensajes que estuvieron circulando en la plataforma social Reddit durante al menos un mes.   Según Bloomberg, las desconcertantes conversaciones, ya sean de intentos inocentes o intencionadas por parte de los usuarios para confundir al chatbot, demuestran cómo las herramientas basadas en IA todavía son vulnerables a imprecisiones u otros problemas y perjudican la confianza en esta tecnología. #metroredes www.elmetropolitano.com.gt

Autor


Quiénes Somos

Somos una red de 35 plataformas en Facebook en todo Guatemala con noticias de interés en cada departamento, divididos en 4 regiones con información local para cada uno de los sectores a los que llegamos, dando a conocer el acontecer local, nacional, internacional, deportivo, cultural, de salud, espectáculos y turismo.


CONTACTO



Sucribirse


    Categorías


    Autor

    vulkan vegas, vulkan casino, vulkan vegas casino, vulkan vegas login, vulkan vegas deutschland, vulkan vegas bonus code, vulkan vegas promo code, vulkan vegas österreich, vulkan vegas erfahrung, vulkan vegas bonus code 50 freispiele, 1win, 1 win, 1win az, 1win giriş, 1win aviator, 1 win az, 1win azerbaycan, 1win yukle, pin up, pinup, pin up casino, pin-up, pinup az, pin-up casino giriş, pin-up casino, pin-up kazino, pin up azerbaycan, pin up az, mostbet, mostbet uz, mostbet skachat, mostbet apk, mostbet uz kirish, mostbet online, mostbet casino, mostbet o'ynash, mostbet uz online, most bet, mostbet, mostbet az, mostbet giriş, mostbet yukle, mostbet indir, mostbet aviator, mostbet casino, mostbet azerbaycan, mostbet yükle, mostbet qeydiyyat