|
neuroproject.ru Форум сайта компании НейроПроект
|
| Предыдущая тема :: Следующая тема |
| Автор |
Сообщение |
Silent Reader Новый посетитель

Зарегистрирован: 01 Авг 2006 Сообщения: 23
|
Добавлено: Вт Авг 01, 2006 10:24 am Заголовок сообщения: Обратное распостранение подтверждения |
|
|
А почему собственно говоря распостранение ошибки?
Вот меня например интересуют прогнозы финансовых рядов(Форекс, акции...). В тех пакетах, которые мне посчастливилось поюзать, обучение происходит понятным всем способом: формируется некий оптимальный сигнал, затем при тренировке сети, её выход сравнивается с ожидаеиым, вычисляется ошибка, учитель бьёт сетку по рукам или по нейронам.
Конечно такой механизм обучения даёт свои плоды, но не более ли логично вычислять ошибку на основании симуляции торгов по сигналам
сетки?
Отсюда возникают вопросы:
А может стоит распостранять не ошибку, а поощрение, подтверждение мол правильной дорогой идёте товарищи? |
|
| Вернуться к началу |
|
 |
Silent Reader Новый посетитель

Зарегистрирован: 01 Авг 2006 Сообщения: 23
|
Добавлено: Вт Авг 01, 2006 11:13 am Заголовок сообщения: |
|
|
И главное. А есть ли в природе нейросимуляторы, в которых можно задавать свою процедуру вычисления ошибки, например во встроенном скрипт-процессоре?
Конечно вариант, когда ошибка считается как 1/P (где P - профитность сетки), не есть наилучший вариант (мне так кажется). Но это лучше чем ничего.
Если я в чём-то ошибаюсь, поправьте меня. Может такой подход содержит в себе принципиальную ошибку, раз его не применяют разработчики серийного софта? |
|
| Вернуться к началу |
|
 |
Victor G. Tsaregorodtsev Эксперт

Зарегистрирован: 28 Июн 2005 Сообщения: 114 Откуда: Красноярск
|
Добавлено: Вт Авг 01, 2006 11:16 am Заголовок сообщения: Re: Обратное распостранение подтверждения |
|
|
| Цитата: | | А может стоит распостранять не ошибку, а поощрение, подтверждение мол правильной дорогой идёте товарищи? |
А как исправлять в этом случае неправильные решения? Ведь сигнала поощрения для них не сгенерировать - так значит сетка их и не научится решать правильно (надеяться на то, что правильные решения при их еще более сильном поощрении вытянут за собой и неправильные решения - слищком сильный оптимизм)
Да, можно учить и с поощрениями и вообще без оценки текущей ситуации в этот же текущий момент (т.е. юзать разные там алгоритмы типа reinforcement learning), но по моим впечатлениям это всё-таки не есть самый гуд. _________________ www.neuropro.ru - нейросети, анализ данных, прогнозирование |
|
| Вернуться к началу |
|
 |
Victor G. Tsaregorodtsev Эксперт

Зарегистрирован: 28 Июн 2005 Сообщения: 114 Откуда: Красноярск
|
Добавлено: Вт Авг 01, 2006 11:17 am Заголовок сообщения: |
|
|
| Цитата: | А есть ли в природе нейросимуляторы, в которых можно задавать свою процедуру вычисления ошибки, например во встроенном скрипт-процессоре?
|
ХЗ. Может, NeuroSolutions (www.nd.com) - он вроде скриптовый вдоль и поперек _________________ www.neuropro.ru - нейросети, анализ данных, прогнозирование |
|
| Вернуться к началу |
|
 |
Silent Reader Новый посетитель

Зарегистрирован: 01 Авг 2006 Сообщения: 23
|
Добавлено: Вт Авг 01, 2006 12:42 pm Заголовок сообщения: |
|
|
Ну, как раз на счёт исправления ошибок не во всех случаях стоит беспокоиться. Т.е. это зависит от задачи. Конкретно при прогнозировании рынков, лично я плохо представляю себе сетку, которая выдаёт оптимальный сигнал в большинстве случаев, даже 50%, это уже фантастика. Слишком много шума на рынке. Хотя это шум лишь с точки зрения того, кто пытается это безобразие прогнозировать, а вообще-то это просто нормальное поведение рынка
Во многих случаях достаточно профитными оказываются даже сетки, выход которых практически не коррелирует с ожидаемым оптимальным сигналом, где-то на уровне шума - 0.01-0.03.
И наоборот. Корреляция 0.05-0.10 ничего не даёт. Т.е. вполне достаточно и того, что из общего потока белого шума иногда прорывается качественный сигнал (с большой амплитудой) и в эти моменты делается вся торговля.
Именно эти наблюдения и заставили меня думать в направлении обратном простому уменьшению ошибки.
Вот если бы речь шла о сортировке качественных и бракованных боеприпасов на конвейере, тогда другое дело Одна ошибка и... |
|
| Вернуться к началу |
|
 |
Eugeen Эксперт

Зарегистрирован: 15 Ноя 2005 Сообщения: 66 Откуда: Москва
|
Добавлено: Вс Авг 06, 2006 11:30 am Заголовок сообщения: |
|
|
| Victor G. Tsaregorodtsev писал(а): | | Цитата: | А есть ли в природе нейросимуляторы, в которых можно задавать свою процедуру вычисления ошибки, например во встроенном скрипт-процессоре?
|
ХЗ. Может, NeuroSolutions (www.nd.com) - он вроде скриптовый вдоль и поперек |
Да, NeuroSolutions-5 позволяет делать с собой гораздо больше, чем самый законченный мазохист! Вы сможете сделать даже свой NeuroSolutions-ХХХ. _________________ Мелочи не играют решающей роли. Они решают все.
"Жизнь среди акул", Х. Маккей. |
|
| Вернуться к началу |
|
 |
_next_ Участник форума

Зарегистрирован: 11 Май 2006 Сообщения: 45
|
Добавлено: Пн Авг 07, 2006 2:59 pm Заголовок сообщения: |
|
|
| Silent Reader писал(а): | | Ну, как раз на счёт исправления ошибок не во всех случаях стоит беспокоиться. |
Имхо, всётаки макс.профитность - оптимальный вариант. "Оптимальный сигнал"(относительно которого вычислять ошибку, или корреляцию), вобще обычный индикатор и похоже это разница между опен и клозе(в TradingSolutions по крайней мере), и с задержкой, так он линеен, и максимальная корреляция с ним ничего не даёт, т.к. сама инициация "оптимальных стрелок" происходит нелинейно.. |
|
| Вернуться к началу |
|
 |
Silent Reader Новый посетитель

Зарегистрирован: 01 Авг 2006 Сообщения: 23
|
Добавлено: Пн Авг 07, 2006 6:47 pm Заголовок сообщения: |
|
|
Вот только встаёт вопрос: а каким это образом сетка вообще дошла до профитности, если её выходной сигнал ни коим образом не напоминает то, чего от неё ждали? Неужто только благодаря ГА входных параметров и топологии? И не означает ли это, что в качестве ожидаемого сигнала можно подавать шум, раз он ничего не решает?
А эффективность сетки не оставляет сомнений, ибо период для тестирования более чем достаточный, да и пример не единичный...
Хотя вру, иногда сигнал напоминает ожидаемый... иногда... редко
Херомантия какая-то. |
|
| Вернуться к началу |
|
 |
Silent Reader Новый посетитель

Зарегистрирован: 01 Авг 2006 Сообщения: 23
|
Добавлено: Пн Авг 07, 2006 7:00 pm Заголовок сообщения: |
|
|
2 Victor G. Tsaregorodtsev
Перечитал ваш первый пост, и до меня дошло
Конечно ошибку не посчитать для одного примера, метод потенциально применим только для batch-подстройки весов. Да и профитность не подсчитать, последствия принятия решения могут лежать неопределённо далеко по временной шкале.
Строго говоря профитносить имеет смысл считать только для всего набора тренировочных данных.
Вот только, как я понял, вы идеологически не приемлете батч-подстройку по всему набору данных сразу http://www.neuropro.ru/memo31.shtml.
Или постулат о неэффективности данного метода не претендует на звание аксиомы?  |
|
| Вернуться к началу |
|
 |
_next_ Участник форума

Зарегистрирован: 11 Май 2006 Сообщения: 45
|
Добавлено: Пн Авг 07, 2006 7:21 pm Заголовок сообщения: |
|
|
| нет там хиромантии, когда в качестве "учителя" используется профитность, сетке достаточно или "попасть" или "не попасть", т.е. определить направление, вопрос в младших таймфреймах.. |
|
| Вернуться к началу |
|
 |
_next_ Участник форума

Зарегистрирован: 11 Май 2006 Сообщения: 45
|
Добавлено: Пн Авг 07, 2006 8:12 pm Заголовок сообщения: |
|
|
Да уж если и быть совсем честным - ни кто не даст "отторговать" весь потенциал качественной нейро-сетевой модели, у меня прецендентов не было(ибо, "провайдера" надо лелеять и беречь), да и проверять смысла нет - мелкий депозит не заметит ни кто, а на крупном обязательно возникнут "вопросы"..
Вполне достаточно использовать "доверительный интервал", 3-5 случайных выборок на истории, с сохранением длины диапазона тренировки - смотрит в "завтра" везде примерно одинаково? смотрит! Делим "завтра" пополам, и в маркет, и вопросов лишних не будет, и стабильность при соблюдении ММ будет иметь место.. |
|
| Вернуться к началу |
|
 |
Silent Reader Новый посетитель

Зарегистрирован: 01 Авг 2006 Сообщения: 23
|
Добавлено: Пн Авг 07, 2006 9:21 pm Заголовок сообщения: |
|
|
| Цитата: | | когда в качестве "учителя" используется профитность, сетке достаточно или "попасть" или "не попасть", т.е. определить направление, вопрос в младших таймфреймах.. |
Не согласен. Если сам торговый стиль подразумевает стопы по прибыли или продолжительности, то общий тренд вообще не интересен.
Соответственно сетка может непопасть, и даже несколько раз подряд в начале выборки, но если дальше будет гуд и выкрутасы в самом начале не прибьют счёт до нуля, то итоговые показатели за весь период обучения могут быть очень положительными, соответственно за такое поведение сетка может рассчитывать на поощрение.
Ну а на счёт "провайдеров", разговор особый...
Я лично использую платный источник данных, дабы распознавать "потустороннее" вмешательство в зародыше |
|
| Вернуться к началу |
|
 |
_next_ Участник форума

Зарегистрирован: 11 Май 2006 Сообщения: 45
|
Добавлено: Вт Авг 08, 2006 7:20 am Заголовок сообщения: |
|
|
| Не верю я в качественный просчёт стопов, одно сравнивать реальный трейд с просчитанным по закрытию бара, на истории. А как софт считает короткие стопы? Как у метаквотсов, "фрактально интерполирует" внутрибаровое движение? Имхо, такая динамика на истории, слабо вяжется с действительностью.. |
|
| Вернуться к началу |
|
 |
Victor G. Tsaregorodtsev Эксперт

Зарегистрирован: 28 Июн 2005 Сообщения: 114 Откуда: Красноярск
|
Добавлено: Вт Авг 08, 2006 9:15 am Заголовок сообщения: |
|
|
| Silent Reader писал(а): | Вот только, как я понял, вы идеологически не приемлете батч-подстройку по всему набору данных сразу http://www.neuropro.ru/memo31.shtml.
Или постулат о неэффективности данного метода не претендует на звание аксиомы?  |
Никакой идеологии нет - есть относительно высокая сравнительная эффективность стохастической (онлайн) оптимизации в случае сверхизбыточной (для достоверного вычисления направления суммарного градиента для батч-подстройки) выборки.
Реально я в работе батч использую в полный рост, да и другим тоже чаще всего рекомендую - поскольку его полностью автоматизировать гораздо проще и менее субъективно. Ведь любой метод одномерной оптимизации длины шага для батча (например, параболическая аппроксимация) будет гораздо формальнее любого способа выбора близкого к оптимальному значения фиксированного (или адаптивного от эпохи к эпохе) шага для попримерного обучения. Но это получается именно навороченный батч - хороший метод градиентной оптимизации плюс оптимизация шага для него на каждой эпохе.
Плюс в случае задачи классификации с сильно неравномерным распределением примеров между классами (отличие в порядок и более) батч будет получше с точки зрения стабильности недопущения перекосов в качестве распознавания каждого класса в обучающей выборке (именно в обучающей).
| Цитата: | | Конечно ошибку не посчитать для одного примера, метод потенциально применим только для batch-подстройки весов. Да и профитность не подсчитать, последствия принятия решения могут лежать неопределённо далеко по временной шкале |
Да нет, всё считается - обучение с подкреплением (reinforcement learning, Q-learning), разные адаптивные критики. И пофигу будет дальность ухода момента оценивания в будущее - главное сама возможность сделать хоть какую-то оценку. _________________ www.neuropro.ru - нейросети, анализ данных, прогнозирование |
|
| Вернуться к началу |
|
 |
Oleg Agapkin Администратор


Зарегистрирован: 10 Июн 2005 Сообщения: 112 Откуда: Москва
|
Добавлено: Ср Авг 09, 2006 10:28 am Заголовок сообщения: Перенос темы |
|
|
Дальнейшее обсуждение технических аспектов перепрограммирования NeuroSolutions представляет отдельный интерес в плане кастомизации этой программы перенесено в тему Реализация своего алгоритма расчета ошибки в NeuroSolutions.
В данной теме предлагается продолжить обсуждение теоретических вопросов, касающихся алгоритмов обучения нейронных сетей.
P.S. Если перенос темы кажется пользователям форума нелогичным, прошу высказывать свое мнение... Можно снова слить темы. Главное - чтобы удобно было |
|
| Вернуться к началу |
|
 |
|
|
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете голосовать в опросах
|
|