Apple revoluciona cómo funciona la IA y la necesidad de recursos

Apple Coding Daily - Podcast tekijän mukaan Julio César Fernández Muñoz

Exploramos el último paper de Apple sobre la eficiencia en la inferencia de modelos de lenguaje grandes (LLMs). Descubre cómo Apple está rediseñando la forma en que utilizamos y aplicamos los LLMs, optimizando el uso de la memoria DRAM y la memoria flash para reducir la necesidad de memoria de los equipos y permitir que dispositivos con menos RAM ejecuten modelos hasta ahora inalcanzables para ellos. Analizaremos técnicas innovadoras como el 'windowing' y la 'agrupación de filas y columnas', que ofrecen un enorme potencial a la hora de discernir cómo un modelo debe ser ejecutado (inferido). Únete a nosotros en esta fascinante charla sobre el futuro de la IA y cómo Apple está contribuyendo a un cambio significativo en la industria. Iníciate en el mundo del Desarrollo iOS con el Swift Developer Program 2025. Encuentra toda la información pulsando aquí. Suscríbete a nuestro canal de Youtube: Apple Coding en YouTube Descubre nuestro canal de Twitch: Apple Coding en Twitch. Descubre nuestras ofertas para oyentes: - Cursos en Udemy (con código de oferta) - Apple Coding Academy - Suscríbete a Apple Coding en nuestro Patreon. - Canal de Telegram de Swift. Acceso al canal. --------------- Consigue las camisetas oficiales de Apple Coding con los logos de Swift y Apple Coding así como todo tipo de merchadising como tazas o fundas. - Tienda de merchandising de Apple Coding.

Visit the podcast's native language site