Noticias

con GPT-4 creen que es posible


OpenAI está obligada a reinventarse de manera constante para poder salvar el estado de sus cuentas que actualmente está comprometido por la falta de inversión y el aumento de los costes que suponen ChatGPT. Esto hace que con GPT-4 quieran tener una gran cantidad de servicios y utilidades diferentes que ofrecer a empresas de terceros.

Uno de los campos más importantes donde se quieren expandir, como se puede ver su propia web, es la moderación de contenidos. Actualmente todas las plataformas tienen que controlar los contenidos que publican terceros usuarios y para ello hace falta un amplio equipo humano que pueda aplicar las reglas de uso de manera eficiente. Pero… ¿Y si ese trabajo lo hace la propia ChatGPT con GPT-4?

ZAO, la APP MÓVIL china que a través de DEEPFAKE te convierte en DICAPRIO en SEGUNDOS

La inteligencia artificial vuelve a amenazar el puesto de trabajo de moderador

Debemos tener en cuenta que GPT-4 es un modelo que se caracteriza por su gran complejidad y que traba con más de 25.000 palabras y en diferentes idiomas. Con estas cualidades y gracias a LLM (para que comprenda mejor el lenguaje natural) desde OpenAI la ven capaz de entrenarse en las políticas de uso para aplicarlas en todos los contenidos. De esta manera prometen filtrar el contenido más tóxico de una manera mucho más rápida que con moderadores humanos.

Es cierto que emitir juicios de valor puede ser algo que en muchas ocasiones en subjetivo y que depende del moderador. Pero según OpenAI con GPT-4 se puede entrenar con diferentes ejemplos asignados a cada una de las políticas de la plataforma. Estos ejemplos serían decisiones de los propios moderadores humanos con los que se podrá realizar el aprendizaje.

Fact Factory Blog Diagram

Siempre van a poder existir discrepancias entre GPT-4 y un ser humano, pero en este caso los creadores creen que se puede pedir un razonamiento detrás de las etiquetas para ir editándolas y aclarando las políticas a aplicar. Apuestan precisamente por apostar por repetir todos estos pasos de manera repetida hasta lograr que se asemeje a los juicios humanos.

Pero la propia compañía reconoce que no se puede dejar de lado el papel de los humanos en este tipo de procedimientos. En concreto considera que los juicio generados por la IA son vulnerables a sesgos y que siempre se van a tener que monitorizar por parte de un humano.

Aunque sin duda estamos ante una gran idea que promete reducir los tiempos de espera hasta moderar un contenido que es realmente tóxico o atenta contra las políticas internas. Pero es cierto que requieren de un gran entrenamiento para evitar que se pueda censurar una simple opinión que no se ha redactado con el lenguaje que comprende la propia IA. Es algo que puede generar muchos beneficios para OpenAI si lo terminan haciendo bien.

En Genbeta | ChatGPT y GPT-4 cometen muchos errores. OpenAI ha lanzado una guía para mejorar mucho sus resultados



Source link

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *