В машинному навчанні, навчання на прикладах (інколи також навчання на пам'яті) це група навчальних алгоритмів що порівнюють нові приклади з тими, що зустрічалися при навчанні і які зберігаються в пам'яті. Навчання на прикладах це вид ледачого навчання.

Ці алгоритми будують гіпотези безпосередньо з навчальних прикладів. Це означає, що складність гіпотези може рости з розміром даних: в найгіршому випадку, гіпотеза — це список n навчальних прикладів і обчислювальна складність класифікації одного нового екземпляра є O(N). Одна з переваг навчання на прикладах порівняно з іншими алгоритмами машинного навчання є його здатність адаптувати свою модель до раніше небачених даних: навчені класифікатори можуть просто зберегти новий екземпляр або викинути старий екземпляр геть.

Прикладами алгоритмів, що навчаються на прикладах є метод найближчих k-сусідів, ядрові методи та RBF-мережі. Ці алгоритми зберігають (підмножину) їх навчальної множини; при передбаченні значення/класу нового прикладу, вони обчислюють відстань або схожість між цим прикладом та тренувальними прикладами, щоб прийняти рішення.

Щоб вирішити проблему використання пам'яті, ризик зашумлення, були запропоновані алгоритми зменшення прикладів.


У цій статті використовується матеріал з статті Вікіпедії Навчання на прикладах, який випущений під Creative Commons Attribution-Share-Alike License 3.0.