Enable javascript in your browser for better experience. Need to know to enable it? Go here.
Publicado : Oct 26, 2022
NO EN LA EDICIÓN ACTUAL
Este blip no está en la edición actual del Radar. Si ha aparecido en una de las últimas ediciones, es probable que siga siendo relevante. Si es más antiguo, es posible que ya no sea relevante y que nuestra valoración sea diferente hoy en día. Desgraciadamente, no tenemos el ancho de banda necesario para revisar continuamente los anuncios de ediciones anteriores del Radar. Entender más
Oct 2022
Evaluar ?

El programa DALL·E de OpenAI llamó la atención por su capacidad de crear imágenes a partir de indicaciones de texto. Ahora, Stable Diffusion ofrece la misma capacidad pero, sobre todo, es de código abierto. Cualquiera que tenga acceso a una tarjeta gráfica potente puede experimentar con el modelo, y cualquiera que disponga de suficientes recursos informáticos puede recrear el modelo por sí mismo. Los resultados son asombrosos, pero también plantean cuestiones importantes. Por ejemplo, el modelo se ha entrenado con pares de imagen-texto obtenidos a través de un amplio rastreo de Internet y, por tanto, reflejará sesgos sociales, lo que significa que podría producir contenidos ilegales, molestos o, como mínimo, indeseables. Stable Diffusion incluye ahora un clasificador de seguridad basado en la IA; sin embargo, dada su naturaleza de código abierto, la gente puede desactivar el clasificador. Por último, los artistas han señalado que, con las indicaciones adecuadas, el modelo es capaz de imitar su estilo artístico. Esto plantea cuestiones sobre las implicaciones éticas y legales de una IA capaz de imitar a un artista.

Descarga el PDF

 

 

 

English | Español | Português | 中文

Suscríbete al boletín informativo de Technology Radar

 

 

 

 

Suscríbete ahora

Visita nuestro archivo para leer los volúmenes anteriores