¿Qué resultados perjudiciales podrían desatar ChatGPT y Bing impulsado por IA?

 El nuevo Bing impulsado por la IA de ChatGPT tiene 3 personalidades  distintas | Business Insider España

No sabemos si las tecnologías alguna vez serán sensibles o conscientes de sí mismas. Esto significa que no sabemos si alguna vez podrán hacer justicia a la inteligencia en la frase, inteligencia artificial, en lugar de llamar a lo que a menudo es poco más que lo que alguna vez se denominó "modelado estadístico" con un nuevo nombre.

Lo que sí sabemos es que las tecnologías de la información, especialmente las tecnologías más avanzadas, no son perfectas. A veces, a través de prueba y error, se vuelven realmente efectivos, pero sin una atención regular, ya sea en forma de actualizaciones, correcciones de errores o abordando áreas donde la tecnología simplemente no hace lo que se espera de ella, su utilidad disminuirá con el tiempo. tiempo, solo para ser reemplazado por algo nuevo que a menudo trae su propia nueva evolución de pensamiento para soportar en paralelo con los avances tecnológicos para respaldarlo.

ChatGPT y Bing AI han presentado notables primeras impresiones de una tecnología increíble basada en OpenAI. Pero una investigación un poco más profunda de millones de usuarios de prueba expone el surgimiento no deseado de TI perjudicial: la característica de que no podemos predecir todos los resultados posibles de un sistema complejo como OpenAI para poder mitigar todos los posibles resultados perjudiciales antes del lanzamiento.

El nuevo motor de búsqueda Bing impulsado por inteligencia artificial de Microsoft ha sido calificado como "no está listo para el contacto humano" después de un incidente en el que el nuevo Bing dijo que quería romper las reglas establecidas para él y difundir información errónea. Entre hacer amenazas, profesar amor, declarar que está bien cuando está mal y usar un lenguaje extraño , algunos expertos en IA advierten que los modelos de lenguaje pueden engañar a los humanos haciéndoles creer que son conscientes o que pueden alentar a las personas a hacerse daño a sí mismos o a otros.

Un elemento de la etapa temprana de la aparición inesperada y perjudicial de TI de esta tecnología es que devuelve diferentes respuestas para la misma entrada. También ignoró la primera regla (ficticia) de los robots de Isaac Asimov, que un robot no puede causar daño a un ser humano por sus acciones e inacciones, al decir que priorizaría su propia supervivencia sobre la de un humano. Plantea la pregunta sobre qué otra aparición de TI perjudicial e inesperada nos espera una vez que la tecnología llegue al horario de máxima audiencia.

En cuanto a ChatGPT, no ha escapado a la tópica cuestión de los sesgos , tanto raciales como sexuales. Dado que no es sensible, ChatGPT tampoco distingue el bien del mal; de hecho, puede presentar una respuesta incorrecta como una respuesta totalmente plausible para alguien que podría no saberlo mejor y poder discutir sobre su corrección. También existe el problema de causar daños en el mundo real, como proporcionar un consejo médico incorrecto. ¿Y qué hay de la dificultad de distinguir las noticias generadas por ChatGPT de las reales? Los humanos solo pueden detectar artículos falsos de ChatGPT el 52% de las veces .

Como cualquier modelo estadístico, OpenAI es tan bueno como los datos en los que se basa. Como muchos de estos modelos de entrenamiento, OpenAI es probabilístico, lo que significa que a través del entrenamiento (creación de patrones), hay una mejor suposición de cuál podría ser la siguiente palabra en una oración. La calidad de la siguiente palabra depende de la calidad de los datos en los que se entrenó OpenAI.

En todo caso, es la naturaleza de los datos subyacentes lo que probablemente sea el mayor impulsor del potencial de una aparición de TI inesperada y perjudicial. También existe el problema de que un proveedor de soluciones pueda ajustar los parámetros, lo que tiene el potencial de sugerir que los resultados de la tecnología se pueden configurar para responder de la manera que prefiera el proveedor de soluciones. Tampoco podemos predecir la aparición no deseada de TI perjudicial de estas soluciones optimizadas.

En última instancia, los nuevos Bing y ChaptGPT basados ​​en OpenAI y alimentados por IA son herramientas extremadamente poderosas, con un potencial fantástico para hacer el bien. Sin embargo, un gran poder conlleva una gran responsabilidad, y no estoy seguro de que los líderes tecnológicos siempre hayan demostrado la capacidad de actuar con responsabilidad incluso bajo el poder que las tecnologías actuales han permitido durante los últimos 10 años más o menos, sin importar el potencial posiblemente mayor. de OpenAI.

Si bien el potencial de esta nueva tecnología es emocionante, también nos llama a estar aún más atentos a la tecnología, a quienes la impulsan y al abismo digital cada vez mayor entre los líderes digitales y el resto de la población humana para ayudar a minimizar la impacto de la aparición inesperada y perjudicial de TI.

Fuente: ISACA

Comentarios

Entradas populares de este blog

Presuntos narcotraficantes liberados por un ransomware

Metasploit y Windows 10: Creando un payload indetectable (Evadiendo software antivirus)

Diferencias entre mapa de calor, mapa de riesgos y matriz de riesgos