
Esta semana, el Center for AI Safety publicó un comunicado de 22 palabras para abordar el tema. El CEO de OpenAI, Sam Altman, fue uno de los firmantes. El Center for AI Safety acaba de presentar un documento más extenso con propuestas políticas para reducir los riesgos a escala social asociados a la IA. Entre ellas, establecer marcos de responsabilidad legal mejorados para los daños causados por los sistemas de IA, un mayor escrutinio regulatorio dirigido al desarrollo de sistemas de IA, y la importancia de la supervisión humana en la implementación de sistemas de IA de alto riesgo. Estas propuestas buscan evitar daños presentes y futuros, y asegurar que los desarrolladores de IA sean responsables de los datos y decisiones de diseño que toman.

GEN-2 es una herramienta de IA generativa que permite generar vídeos a partir de una frase, imagen o videoclip. Está alojada en la página Runway y se puede probar de manera gratuita. Esta IA cuenta con diferentes modos, como el paso de texto a vídeo, generar un vídeo a partir de una imagen, estilización o convertir maquetas en renderizados. Los vídeos generados tienen una duración de cuatro segundos y pueden obtener resultados distorsionados. Esta herramienta es un buen punto de partida para crear recursos libres de derechos para vídeos propios. Además, la IA también se usa para ahorrar tiempo en la búsqueda de respuestas en Google.

Google ha estado trabajando para evitar que el contenido generado por IA aparezca entre los primeros resultados de búsqueda. Esto ha provocado una disminución en el tráfico de algunos sitios web que contienen contenido generado por IA. Esto ha generado una preocupación entre los expertos, ya que el contenido generado por IA no dejará de crecer. Para evitar la confusión, Google debe asegurarse de que los resultados de búsqueda sean precisos y que el contenido generado por IA no se confunda con el contenido original. Esto es especialmente importante cuando se trata de obras de arte como la 'La joven de la perla', que es una de las obras más reconocibles del mundo.

Esto se vio claro en la WWDC 2023, donde no se escuchó el término "Inteligencia Artificial" en ningún momento. Esto se debe a que Apple prefiere usar sus propias marcas como "computación espacial" para desmarcarse de las tendencias mayoritarias. Esto también les permite evitar el riesgo de ser vinculados con noticias negativas relacionadas con la IA. Apple sí usa Inteligencia Artificial en sus productos, pero prefiere no hablar de ello. Esta estrategia les permite mantener el control de la narrativa y evitar ser vinculados con noticias negativas.