в гайде краткое и структурированное объяснение, как устроены большие языковые модели.
он охватывает все ключевые темы: от истории развития нейросетей до современных подходов обучения и архитектуры трансформеров.
внутри вы найдёте:
— как появились LLM и почему они устроены именно так;
— математическую базу: матрицы, градиенты, функции потерь;
— устройство трансформеров и механизм внимания;
— этапы предобучения, файнтюнинга и обучение с подкреплением;
— что такое reasoning и зачем он нужен.
материал подойдёт тем, кто работает с ИИ, интересуется машинным обучением или хочет системно разобраться в теме.