Y no es "tan grave", porque al final el usuario final que quiera saber bien cómo funciona esto sabrá elegir sus fuentes. Y el que no, aunque se le exponga a desinformación, ni la retendrá ni tampoco le generará un mayor perjuicio. Pero a la reputación del que divulga mal…
@dotcsv
-
Mainstream AI Coverage Lacks Rigor and Spreads Misinformation
By
–
La reciente explosión de la IA llegando al mainstream está haciendo que más y más periodistas, divulgadores, tertulianos, se lancen a hablar de ella. El problema es que en muchos casos se está tratando mal, desde el desconocimiento, con poco rigor y desinformando. Mal, vamos.
-
How AI learns animal-environment correlations in image generation
By
–
Fijaos un detalle muy curioso que enseña la forma de operar de la IA, cómo al pedir convertir al gato en conejo, toooodo el entorno de alrededor se convierte en indoor (fondo, puerta, suelo, etc) Esto es porque la IA ha aprendido cuál es la correlación animal-entorno habitual 🙂
-
Image editing by prompt demonstrates impressive generative AI capabilities
By
–
BONUS TRACK Aquí os dejo unos cuantos ejemplos más de la edición de imágenes por prompt, que me parece es una de las funcionalidades más impresionantes de este paper.
-
Muse AI Model: Examples and Research Paper Available
By
–
Tenéis más ejemplos y el paper sobre Muse en la web del proyecto. (WEB) https://
muse-model.github.io Gracias por leerme y seguidme para aprender más sobre Inteligencia Artificial. Si te ha gustado la info comparte el hilo completo haciendo RT -
Muse faster than Stable Diffusion but Stability pushes boundaries
By
–
¿Muse es x3 más rápido que Stable Diffusion? Ok… Pero es que Stability, impulsado por la comunidad open source, ya trabaja en una versión x30 veces más rápida! Para 2023 sólo pido a una Google más abierta. TÚ ANTES MOLABAS…
-
Release AI Lab Tools to Community for Real Evaluation
By
–
LIBERAD ALGO!!! Tenéis herramientas espectaculares: Imagen, Parti, Imagic, DreamBooth, Dreamfusion… Y no las sacáis dejando que caduquen en vuestros laboratorios sin poder tener una evaluación real por el resto de la comunidad. Un paper está bien. Pero con una demo es mejor
-
Google’s New AI Model: Evaluating Quality and Performance Claims
By
–
Aquí una comparación entre varios modelos, sacado del paper oficial. Las imágenes del oso panda es la que mejor representa lo que quiero decir. En cualquier caso… ¿sabes cómo se podría comprobar realmente la calidad y el rendimiento de este nuevo modelo? ¿Eh Google? ¿EHHH?
-
VQGAN vs Diffusion Models: Image Quality Comparison Analysis
By
–
Parti, también de Google, es otro modelo que sigue una estrategia similar. Y aquí hay que decir que si bien parece que las VQGAN consiguen una mejor cercanía entre el prompt y la imagen, mi ojo percibe que la calidad de estas imágenes es peor que con otros modelos cde difusión…
-
Transformers and VQGAN: Alternative to Modern Diffusion Models
By
–
Y es que a diferencia de Stable Diffusion, DALL-E, Midjourney e Imagen, este modelo no usa las modernas arquitecturas de Diffusion. Sino que recupera la tendencia de 2021: los Transformers y las VQGAN. ¿Y eso qué es…? Pues aquí te lo explico