| Параметр сравнения | NeuroShell 2 | Statistica NN package | Комментарий |
| Импорт данных из форматов | Excel, MetaStock, Omega, текстовые, бинарные. Редактирование | Обмен данными со всеми популярными СУБД, текстовые. Редактирование | |
| Установка типа переменных (вход/выход/откл.) | Да | Да | |
| Выделение тестового и экзаменационного набора | 5 способов | Да | |
| Генетический отбор значимых переменных | Да (архитектуры ВНС и НСОР с генетическим поиском) | Да | |
| Анализ главных компонент (АГК) | Возможно построение НС, полностью эквивалентных линейному и нейлинейному АГК | Да | Линейный АГК малоэффективен. Нелинейный АГК (с помощью ассоциативных НС) сложен из-за громоздкой архитектуры НС |
| Масштабирование данных | Да | Да | |
| Перекодирование символов в числа | Да | Да | |
| Средства анализа временных рядов | Дополнение "Пакет рыночных индикаторов с оптимизатором" | Да | Дополнение содержит более 150 популярных индикаторов. Подбор наиболее полезных индикаторов и их параметров |
| Графические средства анализа данных | 4 вида графиков | Да | |
| Установка оптимальных параметров по умолчанию при создании НС | Да | Да | |
| Автоматическое построение НС | а) Дополнение "Пакетный процессор" - "электронная таблица" для создания, тренировки и проверки различных конфигураций НС б) Поиск оптимальной НС возможен средствами пакета GeneHunter. Один из примеров в пакете - обучение НС с помощью генетических алгоритмов в) Программы NS Predictor и NS Classifier основаны на растущей по мере тренировки НС архитектуре |
Метод "искусственного отжига" | Генетические алгоритмы - один из наиболее эффективных и универсальных алгоритмов решения оптимизационных задач |
| Многослойный перцептрон | Алгоритмы обучения: а) Обратное распространение ошибки (backprop) б) TurboProp (автоматическая подстройка скорости и момента при обучении) |
Алгоритмы обучения: а) Обратное распространение ошибки б) Метод сопряженных градиентов в) Метод Левенберга-Маркара г) Быстрое распространение (аналогично TurboProp) д) Дельта- дельта-с-чертой |
б) Метод сопряженных градиентов улучшает сходимость алгоритма backprop лишь в малой окрестности ближайшего локального минимума, в результате давая более плохие решения в) Метод Левенберга-Маркара применим лишь для НС небольшого размера д) Дельта-дельта-с-чертой требует значительно больших ресурсов, чем backprop. Возможно неустойчивое поведение при обучении |
| Рекуррентные сети | 3 вида (с обратной связью от входного, скрытого и выходного слоев) | Нет | Рекуррентные НС особенно перспективны при работе с временными рядами, поскольку обладают способностью обучаться на последовательностях примеров и моделировать сложные динамические системы |
| Радиальные базисные функции (РБФ) | Нет | Да | РБФ просты в обучении, но малопригодны при решении задач большой размерности из-за быстрого роста требуемых вычислительных ресурсов |
| НС с общей регрессией | Да | Да ("Обобщенно- регрессионная НС") | |
| Вероятностная НС | Да | Да | |
| Сеть Кохонена | Да | Да | |
| Алгоритмы кластеризации | Сеть Кохонена | Сеть Кохонена, метод К-средних, метод ближайших соседей | Сеть Кохонена является наиболее эффективным алгоритмом кластеризации среди перечисленных |
| Метод группового учета аргументов | Да | Нет | Алгоритм нейлинейной полиномиальной регрессии. Дает ответ в виде алгебраической формулы |
| Автоматическое запоминание лучшей НС во время тренировки | Да (технология "Калибровка") | То же самое* | |
| Различные передаточные функции нейронов | 8 типов | Да | |
| Графическое отображение процесса обучения | Графики ошибки на тренировочном и тестовом наборах, гистограммы распределения ошибок | То же самое* | |
| Критерии остановки обучения | 4 критерия остановки на тренировочном наборе, 3 критерия остановки на тестовом наборе | Да | |
| Создание гибридных НС структур, комбинирование нескольких НС | Нет. Возможно при использовании пакета NeuroWindows | Да | Пакет NeuroWindows является "конструктором" - динамической библиотекой функций, позволяющей создавать, тренировать и применять произвольные НС архитектуры. Допускается одновременная работа 128 НС |
| Проверка обученной сети на независимых данных | Да | Да | |
| 3-мерные средства визуализации ответов НС | Дополнение "Трехмерная графика" | Да | |
| Экспорт результатов | Текстовый, бинарный, Excel формат | Да | |
| Генератор текста, описывающего работу обученной НС | Для языков Си, Basic и формульное представление | Нет | |
| Работа с другими приложениями | Генератор автономных файлов (для вызова обученной НС, напр., из Excel). Дополнение "Trade Station" для работы в Trade Station (вызов обученной НС средствами Easy Language) | Сокращенный набор API для работы с обученными НС. Полный набор API для тренировки НС | Возможно использование пакета NeuroWindows (см. выше) для интеграции НС с другими программами или для написания собственных программ |
| Работа в Windows 95, Windows NT | Да | Да | |
| Электронный учебник, контекстная справка | Да | Да |
*Примечание. Следует иметь в виду, что NeuroShell 2 с практически неизменным интерфейсом существует c 1992 года, тогда как Statistica Neural Network package появился только в 1999-м. Поэтому в случаях явной идентичности сравниваемых параметров в столбце, соответствующем Statistica, пишется "то же самое".
Для возврата воспользуйтесь кнопкой "назад" Вашей программы просмотра.
На начальную страницу© 1999 НейроПроект