Pere Martra — ML Research Engineer, специализирующийся на пост-обучении, сжатии и выравнивании (alignment) больших языковых моделей (LLM). Его работа направлена на сокращение разрыва между академическими исследованиями и инженерной практикой. Основная цель его исследований — создание специализированных малых языковых моделей (SLM), способных достигать высоких результатов при значительно меньших вычислительных ресурсах.
В настоящее время он работает над книгой «Rearchitecting LLMs» для Manning Publications (MEAP — Q1 2026, публикация — Q2 2026). Книга посвящена продвинутым методам оптимизации языковых моделей, выходящим за рамки традиционного fine-tuning. Ранее он опубликовал книгу «Large Language Models Projects» (Apress, 2024), посвящённую практическому применению LLM.
Его ключевые технические направления включают оптимизацию архитектуры моделей, разработку эффективных пайплайнов создания специализированных моделей, а также исследования структурного pruning. В своей работе (препринт, декабрь 2025) он исследует систематическое прореживание (pruning) в архитектурах GLU, показывая, как структурная оптимизация может улучшать такие способности моделей, как следование инструкциям.
Он также является создателем OptiPfair — open-source библиотеки для обнаружения и уменьшения предвзятости нейронов на уровне отдельных нейронных компонентов моделей.
Имея более двадцати лет опыта технического лидерства, сегодня он сосредоточен на разработке эффективных и этичных AI-систем. Pere Martra активно участвует в профессиональном сообществе: он является автором курса «Large Language Model Notebooks» (более 1 800 звёзд на GitHub) и участвует в экосистемах Hugging Face и Google Gemini.
Открыт к сотрудничеству в исследовательских и инженерных проектах, связанных с эффективностью моделей, их сжатием и ответственным развитием искусственного интеллекта.