Hasta ahora, la mayoría de los modelos de computación distribuida se han enfocado en el procesamiento de la información en la nube. Por otro ldao, los dispositivos de borde (más cercanos a los usuarios), como los teléfonos inteligentes, tabletas y ordenadores portátiles, se han utilizado para recopilar y mostrar la información. Sin embargo, el borde está cambiando, haciéndose más extenso y sofisticado, lo que provoca que la cantidad de datos producidos en los dispositivos de borde crezca exponencialmente, superando las capacidades de la red y haciendo imposible enviarlos todos a la nube para su procesamiento y análisis. Además, muchos de estos datos son privados por lo que no se pueden transferir a centros de procesamiento externos. Otros dispositivos deben tomar decisiones en tiempo real y no pueden esperar a que la nube les dé una respuesta antes de actuar, o incluso pueden quedar temporalmente incomunicados. Estos escenarios abogan por la computación distribuida tolerante a fallos en el borde, la ejecución de los algoritmos de IA en dispositivos ligeros y el aprendizaje de modelos globales utilizando los datos locales de los dispositivos, es decir, el aprendizaje federado en el borde. En esta tesis, proponemos ver el aprendizaje de borde federado como un tipo de computación voluntaria en la que los usuarios donan los recursos informáticos de sus dispositivos de borde a un proyecto que entrena un modelo de aprendizaje automático compartido. Definimos y abordamos los retos y las características deseables para lograr la computación voluntaria para el aprendizaje de borde federado. Buscamos adaptarnos a la volatilidad de las desconexiones y conseguir tolerancia a fallos. Proponemos dos enfoques, uno síncrono y otro asíncrono, utilizando un número determinado de dispositivos limitados, poco fiables y heterogéneos (hardware y software) y, mostramos su idoneidad para este fin en entornos dinámicos.