Repito que no hay nada claro aún que nos permita decir que entrenar IA es legal o ilegal. Da igual si son imágenes con propiedad intelectual o no. Hasta que judicialmente no se decida, no podremos afirmar nada. Este artículo recoge muy bien el cacao. https://
theverge.com/23444685/gener
ative-ai-copyright-infringement-legal-fair-use-training-data
…
@dotcsv
-
AI Training Legal Status Remains Undefined Without Court Rulings
By
–
-
Web Scraping Legality: US Court Ruling Clarifies Unclear Legal Status
By
–
Que scrappear datos sea ilegal tampoco es algo que esté claro o que explícitamente esté recogido en la ley. La jurisprudencia que ha marcado este caso en EEUU este mismo año es un ejemplo de ello. https://
techcrunch.com/2022/04/18/web
-scraping-legal-court/?guccounter=1&guce_referrer=aHR0cHM6Ly93d3cuZ29vZ2xlLmNvbS8&guce_referrer_sig=AQAAALNsHjpPZr_mlfFDrx0pIaEPiKykFV3tYQYE_HokhXAkyMIaaxjhYc5uVvvBQ1BSAxxX2_ZIngPy36Esm_LeSxL4Hy5p5rTkg3OVlFaJJwsb8a9rY-OwzGByt_pu-HG3X_yp0WNW6sKAjLTtgqUk7ALWoinshKEiMe3We2IPDO-c
… -
Legal framework for artificial intelligence regulation
By
–
¿Puedes pasarme la ley donde se diga que es ilegal?
-
ChatGPT Streamlines After Effects Script Generation for Creators
By
–
Qué maravilla ChatGPT para crear scripts rápidos para las animaciones de After Effects. Oye, que quiero una matriz de números aleatorios de dimensiones NxM… ¡HECHO EN SEGUNDOS!
-
Why Scaling Large Language Models Matters in AI
By
–
A estas tecnologías se le llaman Enormes Modelos del Lenguaje (LLMs) y si queréis saber por qué es tan interesante hacer a estas IAs cada vez más grandes, en este vídeo se explica muy bien 🙂
-
GPT-4 Consolidation as Mainstream AI Tool for Diverse Tasks
By
–
Sea como sea, tiene pinta de que GPT-4 va a consolidarse como la primera GRAN herramienta de IA que masivamente usaremos para un gran rango de tareas. ChatGPT nos ha mostrado sus posibilidades. Y si los rumores que llegan desde Silicon Valley son ciertos, lo que viene es grande.
-
Chinchilla shows scaling laws matter more than model size
By
–
Y es que este año DeepMind con Chinchilla demostró que no hacía falta escalar tanto a estos Enormes Modelos del Lenguaje. Que GPT-3 todavía tenía margen de mejora para ser entrenado más y con más datos sin necesidad de hacerlos MÁS GRANDES. Así que el tamaño no es tan importante.
-
Future AI Models: 5x Larger than GPT-3 Predicted
By
–
Rumores hablan de esto: un modelo 500 VECES más grande que GPT-3. …pues no lo creo Si así fuera tendría miedo de tremenda bestia Pero creo que lo que vamos a ver es algo más "modesto" quizás un modelo 5 VECES mayor que llegue al BILLÓN de parámetros
-
GPT-4 scaling potential beyond GPT-3’s 175 billion parameters
By
–
Si algo impresionó de GPT-3 fue cómo OpenAI logró escalar el tamaño de su modelo frente a sus predecesores. Respecto a GPT-2, la nueva versión aumentó su número de parámetros en >100 veces, hasta los 175 mil millones de parámetros. ¿Cuánto podría escalar GPT-4? ¿Qué pensáis?
-
GPT-4 curiosity sparked by Gary Marcus critique
By
–
Si algo ha despertado mi curiosidad por GPT-4 es leer este párrafo del blog de Gary Marcus, quien por normal general (y en este artículo no es la excepción) se sitúa en las antípodas de estos Enormes Modelos del Lenguaje. ¿Hay gente probándolo ya?