Rambler's Top100 Внимание!!! Это старая версия нашего сайта, новая версия находится здесь

Сравнение пакетов моделирования нейросетей (НС)
NeuroShell 2 и STATISTICA Neural Networks

Параметр сравнения NeuroShell 2 Statistica NN package Комментарий
Импорт данных из форматов Excel, MetaStock, Omega, текстовые, бинарные. Редактирование Обмен данными со всеми популярными СУБД, текстовые. Редактирование  
Установка типа переменных (вход/выход/откл.) Да Да  
Выделение тестового и экзаменационного набора 5 способов Да  
Генетический отбор значимых переменных Да (архитектуры ВНС и НСОР с генетическим поиском) Да  
Анализ главных компонент (АГК) Возможно построение НС, полностью эквивалентных линейному и нейлинейному АГК Да Линейный АГК малоэффективен. Нелинейный АГК (с помощью ассоциативных НС) сложен из-за громоздкой архитектуры НС
Масштабирование данных Да Да  
Перекодирование символов в числа Да Да  
Средства анализа временных рядов Дополнение "Пакет рыночных индикаторов с оптимизатором" Да Дополнение содержит более 150 популярных индикаторов. Подбор наиболее полезных индикаторов и их параметров
Графические средства анализа данных 4 вида графиков Да  
Установка оптимальных параметров по умолчанию при создании НС Да Да  
Автоматическое построение НС а) Дополнение "Пакетный процессор" - "электронная таблица" для создания, тренировки и проверки различных конфигураций НС
б) Поиск оптимальной НС возможен средствами пакета GeneHunter. Один из примеров в пакете - обучение НС с помощью генетических алгоритмов
в) Программы NS Predictor и NS Classifier основаны на растущей по мере тренировки НС архитектуре
Метод "искусственного отжига" Генетические алгоритмы - один из наиболее эффективных и универсальных алгоритмов решения оптимизационных задач
Многослойный перцептрон Алгоритмы обучения:
а) Обратное распространение ошибки (backprop)
б) TurboProp (автоматическая подстройка скорости и момента при обучении)
Алгоритмы обучения:
а) Обратное распространение ошибки
б) Метод сопряженных градиентов
в) Метод Левенберга-Маркара
г) Быстрое распространение (аналогично TurboProp)
д) Дельта- дельта-с-чертой
б) Метод сопряженных градиентов улучшает сходимость алгоритма backprop лишь в малой окрестности ближайшего локального минимума, в результате давая более плохие решения
в) Метод Левенберга-Маркара применим лишь для НС небольшого размера
д) Дельта-дельта-с-чертой требует значительно больших ресурсов, чем backprop. Возможно неустойчивое поведение при обучении
Рекуррентные сети 3 вида (с обратной связью от входного, скрытого и выходного слоев) Нет Рекуррентные НС особенно перспективны при работе с временными рядами, поскольку обладают способностью обучаться на последовательностях примеров и моделировать сложные динамические системы
Радиальные базисные функции (РБФ) Нет Да РБФ просты в обучении, но малопригодны при решении задач большой размерности из-за быстрого роста требуемых вычислительных ресурсов
НС с общей регрессией Да Да ("Обобщенно- регрессионная НС")  
Вероятностная НС Да Да  
Сеть Кохонена Да Да  
Алгоритмы кластеризации Сеть Кохонена Сеть Кохонена, метод К-средних, метод ближайших соседей Сеть Кохонена является наиболее эффективным алгоритмом кластеризации среди перечисленных
Метод группового учета аргументов Да Нет Алгоритм нейлинейной полиномиальной регрессии. Дает ответ в виде алгебраической формулы
Автоматическое запоминание лучшей НС во время тренировки Да (технология "Калибровка") То же самое*  
Различные передаточные функции нейронов 8 типов Да  
Графическое отображение процесса обучения Графики ошибки на тренировочном и тестовом наборах, гистограммы распределения ошибок То же самое*  
Критерии остановки обучения 4 критерия остановки на тренировочном наборе, 3 критерия остановки на тестовом наборе Да  
Создание гибридных НС структур, комбинирование нескольких НС Нет. Возможно при использовании пакета NeuroWindows Да Пакет NeuroWindows является "конструктором" - динамической библиотекой функций, позволяющей создавать, тренировать и применять произвольные НС архитектуры. Допускается одновременная работа 128 НС
Проверка обученной сети на независимых данных Да Да  
3-мерные средства визуализации ответов НС Дополнение "Трехмерная графика" Да  
Экспорт результатов Текстовый, бинарный, Excel формат Да  
Генератор текста, описывающего работу обученной НС Для языков Си, Basic и формульное представление Нет  
Работа с другими приложениями Генератор автономных файлов (для вызова обученной НС, напр., из Excel). Дополнение "Trade Station" для работы в Trade Station (вызов обученной НС средствами Easy Language) Сокращенный набор API для работы с обученными НС. Полный набор API для тренировки НС Возможно использование пакета NeuroWindows (см. выше) для интеграции НС с другими программами или для написания собственных программ
Работа в Windows 95, Windows NT Да Да  
Электронный учебник, контекстная справка Да Да  

*Примечание. Следует иметь в виду, что NeuroShell 2 с практически неизменным интерфейсом существует c 1992 года, тогда как Statistica Neural Network package появился только в 1999-м. Поэтому в случаях явной идентичности сравниваемых параметров в столбце, соответствующем Statistica, пишется "то же самое".


Для возврата воспользуйтесь кнопкой "назад" Вашей программы просмотра.

На начальную страницу

© 1999 НейроПроект



Rambler's Top100