В машинному навчанні, навчання на прикладах (інколи також навчання на пам'яті) це група навчальних алгоритмів що порівнюють нові приклади з тими, що зустрічалися при навчанні і які зберігаються в пам'яті. Навчання на прикладах це вид ледачого навчання.
Ці алгоритми будують гіпотези безпосередньо з навчальних прикладів. Це означає, що складність гіпотези може рости з розміром даних: в найгіршому випадку, гіпотеза — це список n навчальних прикладів і обчислювальна складність класифікації одного нового екземпляра є O(N). Одна з переваг навчання на прикладах порівняно з іншими алгоритмами машинного навчання є його здатність адаптувати свою модель до раніше небачених даних: навчені класифікатори можуть просто зберегти новий екземпляр або викинути старий екземпляр геть.
Прикладами алгоритмів, що навчаються на прикладах є метод найближчих k-сусідів, ядрові методи та RBF-мережі. Ці алгоритми зберігають (підмножину) їх навчальної множини; при передбаченні значення/класу нового прикладу, вони обчислюють відстань або схожість між цим прикладом та тренувальними прикладами, щоб прийняти рішення.
Щоб вирішити проблему використання пам'яті, ризик зашумлення, були запропоновані алгоритми зменшення прикладів.