Национальный цифровой ресурс Руконт - межотраслевая электронная библиотека (ЭБС) на базе технологии Контекстум (всего произведений: 634620)
Контекстум
.
Вестник Воронежского государственного университета. Серия: Системный анализ и информационные технологии  / №1 2011

АНАЛИЗ ЭФФЕКТИВНОСТИ МЕТОДОВ СНИЖЕНИЯ ВЫБОРОЧНОЙ КОНСТАНТЫ ЛИПШИЦА СЕТИ КАК ИНСТРУМЕНТОВ ПОВЫШЕНИЯ СКОРОСТИ ОБУЧЕНИЯ НЕЙРОСЕТЕВЫХ АЛГОРИТМОВ (90,00 руб.)

0   0
Первый авторАзарнова
АвторыТерновых И.Н.
Страниц5
ID519949
АннотацияВ статье рассматривается проблема обучения нейронных сетей при больших объемах обучающих выборок и проводится экспериментальный анализ по оценке степени повышения скорости обучения сети при использовании методов предобработки, базирующихся на понижении выборочной константы Липшица сети
УДК336.1; 336.22
Азарнова, Т.В. АНАЛИЗ ЭФФЕКТИВНОСТИ МЕТОДОВ СНИЖЕНИЯ ВЫБОРОЧНОЙ КОНСТАНТЫ ЛИПШИЦА СЕТИ КАК ИНСТРУМЕНТОВ ПОВЫШЕНИЯ СКОРОСТИ ОБУЧЕНИЯ НЕЙРОСЕТЕВЫХ АЛГОРИТМОВ / Т.В. Азарнова, И.Н. Терновых // Вестник Воронежского государственного университета. Серия: Системный анализ и информационные технологии .— 2011 .— №1 .— С. 139-143 .— URL: https://rucont.ru/efd/519949 (дата обращения: 20.04.2024)

Предпросмотр (выдержки из произведения)

ИНТЕЛЛЕКТУАЛЬНЫЕ ИНФОРМАЦИОННЫЕ СИСТЕМЫ УДК 336.1; 336.22 АНАЛИЗ ЭФФЕКТИВНОСТИ МЕТОДОВ СНИЖЕНИЯ ВЫБОРОЧНОЙ КОНСТАНТЫ ЛИПШИЦА СЕТИ КАК ИНСТРУМЕНТОВ ПОВЫШЕНИЯ СКОРОСТИ ОБУЧЕНИЯ НЕЙРОСЕТЕВЫХ АЛГОРИТМОВ Т. В. <...> Азарнова, И. Н. Терновых Воронежский государственный университет Поступила в редакцию 28.03.2011 г. Аннотация. <...> В статье рассматривается проблема обучения нейронных сетей при больших объемах обучающих выборок и проводится экспериментальный анализ по оценке степени повышения скорости обучения сети при использовании методов предобработки, базирующихся на понижении выборочной константы Липшица сети. <...> Ключевые слова: нейронная сеть, обучение сети, характеристики скорости обучения, методы предобработки, константа Липшица сети. <...> ВВЕДЕНИЕ Практические задачи, которые используют нейросетевые механизмы, как правило, оперируют достаточно большим набором многомерных входных данных. <...> Размер обучающей выборки может достигать тысяч и даже десятков тысяч обучающих элементов. <...> В ходе обучения нейронных сетей градиентными методами производятся достаточно сложные вычисления, и время обучения при большой размерности обучающей выборки может достигать десятков часов или даже нескольких суток. <...> Это объясняет актуальность задачи разработки и исследования инструментов сокращения скорости обучения нейронных сетей на базе больших обучающих выборок. <...> В данной работе проводится анализ эффективности методов снижения выборочной константы Липшица сети как инструментов повышения скорости обучения нейросетевых алгоритмов обратного распространения ошибки. <...> Для оценки эффективности методов предобработки, базирующихся на понижении выборочной константы Липшица сети, проводится © Азарнова Т. В., Терновых И. Н., 2011 г. 140 комплексный эксперимент, включающий: построение архитектуры сети, реализующей метод обратного распространения ошибки; генерацию разбитых на кластеры многомерных обучающих выборок, отвечающих <...>