|
neuroproject.ru Форум сайта компании НейроПроект
|
| Предыдущая тема :: Следующая тема |
| Автор |
Сообщение |
Fyodor Новый посетитель

Зарегистрирован: 25 Июн 2005 Сообщения: 4 Откуда: Москва
|
Добавлено: Сб Июн 25, 2005 3:56 pm Заголовок сообщения: На что влияет количество слоев и количество нейронов в слое |
|
|
Мой второй вопрос в дополнение к этому в следующем:
На что влияет 1) количество слоев и 2) количество нейронов в слое?
Я так понял, что 2-е влияет на правильность сдвига и крутости выходной функции, которая представляет собой многомерную плоскость ответов, зависящую от входных сигналов, и если слой только один, то это - плоскость с одним локальным максимумом (?)
1-е (количество слоев) влияет на количество бугров и ям на этой плоскости. То есть если сеть для каких-то похожих вариантов все время недостаточно правильно отвечает, это сигнал, что она недостаточно гибка, чтобы увидеть в определенном месте локальный максимум или минимум.
Правильно ли я понял?
зы. у меня в голове статистическая и терминологическая каша, но я надеюсь вы поможете мне приблизить мои знания к правде (отточенных формулировок я не прошу, мне не экзамен сдавать мне бы лишь направление). |
|
| Вернуться к началу |
|
 |
Oleg Agapkin Администратор


Зарегистрирован: 10 Июн 2005 Сообщения: 112 Откуда: Москва
|
Добавлено: Пн Июн 27, 2005 2:28 pm Заголовок сообщения: На что влияет количество слоев и количество нейронов в слое |
|
|
| Цитата: | | На что влияет 1) количество слоев и 2) количество нейронов в слое? |
Я бы сказал так: и количество слоев в сети и количество нейронов в слоях влияют на обобщающие свойство нейросети.
Собственно говоря, математически можно отталкиваться от теоремы Колмогорова. Если "в первом приближении" смотреть на нее с нейросетевых соображений, то можно видеть, что любую n-мерную задачу можно решать с помощью обычного трехслойного перцептрона (с одним скрытым слоем!), имеющим 2n+1 нейронов в скрытом слое. Есть, кстати, специальное нейросетевое обобщение этой теоремы.
На практике же это далеко не всегда так - нелинейные функции в этом преобразовании (аналог передаточных ф-ций нейросети) в явном виде не известны, данные из обучающей выборки не всегда репрезентативны, и пр.
Так или иначе, обычно подбор сети и исследования ее "способностей" выполняются "руками" т.е. сугубо практически.
При этом на выбор архитектуры очень сильно влияет специфика задачи, представительность и "чистота" данных. Например, если данных для обучения мало, то мы не можем создавать сложные сети, иначе задача может просто оказаться недоопределенной (когда количество примеров сопоставимо с количеством настраиваемых связей) .
С другой стороны, для каждой практической задачи есть свой "порог простоты" нейросети, находясь ниже которого сеть будет просто не в состоянии качественно настраивать свои свободные параметры при обучении. Т.е. ей не хватит обобщающих способностей.
Другое отличие между сложными и простыми сетями состоит в том, что сложные сети дольше обучаются и как бы "более капризны" при обучении, но при этом, как отмечают
некоторые авторы, иногда работают несколько лучше (по нашему опыту - далеко не всегда). При этом речь не идет об очень сложных сетях (В большинстве задач нет смысла делать сети с более чем тремя скрытыми слоями). |
|
| Вернуться к началу |
|
 |
Nickolay Martinov Новый посетитель

Зарегистрирован: 27 Июн 2005 Сообщения: 7
|
Добавлено: Пн Июн 27, 2005 7:23 pm Заголовок сообщения: |
|
|
| При выборе числа слоев и нейронов в них можно опираться на критерий Червоненкиса-Вапника, собственный опыт и метод проб и ошибок. Сдается мне что по другому никак. Наверное, именно поэтому все большую популярность набирают динамические сети (CasCor, Casper, FlexNet, ...) |
|
| Вернуться к началу |
|
 |
Fyodor Новый посетитель

Зарегистрирован: 25 Июн 2005 Сообщения: 4 Откуда: Москва
|
Добавлено: Пн Июн 27, 2005 11:59 pm Заголовок сообщения: |
|
|
| Спасибо! |
|
| Вернуться к началу |
|
 |
Oleg Agapkin Администратор


Зарегистрирован: 10 Июн 2005 Сообщения: 112 Откуда: Москва
|
Добавлено: Вт Июн 28, 2005 1:42 pm Заголовок сообщения: Растущие нейронные сети |
|
|
| Цитата: | | Наверное, именно поэтому все большую популярность набирают динамические сети (CasCor, Casper, FlexNet, ...) |
Да, динамические сети хороши, но чаще всего для новичков. Опытному человеку не так уж и сложно немного "покрутить ручки" и найти лучшую архитектуру для каждой конкретной задачи.
У динамических сетей есть свои плюсы:
1) Легкость настройки
2) Высокая скорость обучения
3) Иногда они все таки работают не только быстрее, но и "качественнее". Простой пример - задача "о двух спиралях" (Вероятностные НС и НС с общей регрессией не рассматриваем).
... и свои минусы (например у Cascade Correlation)
1) Им свойственно "переучиваться" - это следствие разрастания и подстройки под все нюансы тренировочного набора.
2) Они менее приспособлены для работы с изменяющимися данными (т.к. для тренировки постоянно нужен доступ ко всему тренировочному набору)
3) Не знаю, насколько это важно, но их невозможно реализовать аппаратно (по крайней мере это очень сложно).
Мой личный опыт (и не только мой, кстати) говорит о том, что в большинстве задач "статичные" архитектуры способны работать с меньшей ошибкой чем динамические сети. При этом надо отдать должное последним - они не требуют практически никакой настройки и работать с ними гораздо проще. |
|
| Вернуться к началу |
|
 |
Victor G. Tsaregorodtsev Эксперт

Зарегистрирован: 28 Июн 2005 Сообщения: 114 Откуда: Красноярск
|
Добавлено: Вт Июн 28, 2005 3:57 pm Заголовок сообщения: |
|
|
| Цитата: | | Иногда они все таки работают не только быстрее, но и "качественнее". Простой пример - задача "о двух спиралях" |
Здесь у Вас ошибка. Все модификации начального алгоритма каскадной корреляции и более поздние альтернативные алгоритмы для растущих сетей как раз и были нацелены на повышение обобщающих способностей, поскольку КасКор сильно проигрывал обычной трехслойной сетке как раз на задаче о двух спиралях.
"иногда" - да, согласен, могут работать качественнее. Но в базовых вариантах алгоритмов - не в этой задаче. |
|
| Вернуться к началу |
|
 |
Nickolay Martinov Новый посетитель

Зарегистрирован: 27 Июн 2005 Сообщения: 7
|
Добавлено: Вт Июн 28, 2005 7:03 pm Заголовок сообщения: Re: Растущие нейронные сети |
|
|
| Oleg Agapkin писал(а): | | Да, динамические сети хороши, но чаще всего для новичков. Опытному человеку не так уж и сложно немного "покрутить ручки" и найти лучшую архитектуру для каждой конкретной задачи. |
Скорее всего лучшей она будет среди перепробованных вариантов. Но действительно, имея некоторый опыт получается достаточно точно угадать количество нейронов в слоях (про количество слоев я уж молчу) и остается сделать 2-4 поднастройки. Тем не менее сама идея "подкручивания ручек" мне не нравится.
| Цитата: | 1) Им свойственно "переучиваться" - это следствие разрастания и подстройки под все нюансы тренировочного набора.
|
Это скорее проблема конкретных алгоритмов. Как я понимаю, имеется ввиду CasCor. У S_Casper, например, если верить результатам Трэдголда, таких проблем нет вообще (почти почти вообще).
| Цитата: | 2) Они менее приспособлены для работы с изменяющимися данными (т.к. для тренировки постоянно нужен доступ ко всему тренировочному набору)
|
Фактов у меня нет, но интуитивно предполагаю, что на основе каскадной корреляции как раз и можно было бы построить сеть способную дообучаться.
| Цитата: | 3) Не знаю, насколько это важно, но их невозможно реализовать аппаратно (по крайней мере это очень сложно).
|
Имеется ввиду, что каскад может неограниченно расти. Одна из поздних модификаций Casper`а как раз нацелена на облегчение аппаратной реализации. Точное название сейчас не скажу, но идея в том, чтобы строить толи каскад башен (tower), толи башню каскадов. Заодно там предложены идеи для пущего изничтожения high fan-in и т.п.
| Цитата: | Мой личный опыт (и не только мой, кстати) говорит о том, что в большинстве задач "статичные" архитектуры способны работать с меньшей ошибкой чем динамические сети.
|
Это наверное при условии точной настройки архитектуры, большой базы обучающих векторов и относительной простоты аппроксимируемой функции.
По моему опыту, настроить архитектуру при количестве скрытых слоев более 3х (а иногда это бывает нужно), задача не из быстрых. Да и переобучение проявляется очень быстро (а размер обучающей базы ограничен). Вот здесь-то high-order-feature-detection каскадных сетей как раз сильно выигрывает. |
|
| Вернуться к началу |
|
 |
Nickolay Martinov Новый посетитель

Зарегистрирован: 27 Июн 2005 Сообщения: 7
|
Добавлено: Вт Июн 28, 2005 7:09 pm Заголовок сообщения: |
|
|
| Victor G. Tsaregorodtsev писал(а): | | поскольку КасКор сильно проигрывал обычной трехслойной сетке как раз на задаче о двух спиралях. |
Позволю себе не согласиться. На сколько я помню Фалмана, то его результаты лучше. И насколько я помню других аторов, то в результате экспериментов было выявлено, что backprop правильно решает две спирали в двух случаях из ста и затрачивает на это не менее 80 тыс итераций. Предполагаю, что вы наверное имеете ввиду не "обычный персептрон", а какой-нибудь алгоритм обучения из разряда sarprop+куча модификаций. |
|
| Вернуться к началу |
|
 |
Victor G. Tsaregorodtsev Эксперт

Зарегистрирован: 28 Июн 2005 Сообщения: 114 Откуда: Красноярск
|
Добавлено: Ср Июн 29, 2005 10:49 am Заголовок сообщения: |
|
|
| Цитата: | | Позволю себе не согласиться. На сколько я помню Фалмана, то его результаты лучше. И насколько я помню других аторов, то в результате экспериментов было выявлено, что backprop правильно решает две спирали в двух случаях из ста |
Я про скорость обучения и не говорил - поэтому на нее делать упор тут не буду, а имел в виду качество обобщения у нейросеток (именно так понял слово "качественнее" у Oleg Agapkin - ведь если сетка не может обучится, нафиг смотреть на ее быстроту обучения?), но у Фалмана цифр по обобщению нет (он только показал, что КасКор может обучиться правильно распознать обучающую выборку).
Все модификации КасКора в основном шли в сторону сближения с обычными нейросетями (отказ от корреляционного критерия, добавление нейронов не в новый слой, а в том числе и в старые,...). Картинки, на которых можно увидеть улучшение гладкости разделяющей поверхности в задаче о спиралях, даны в работах
1. Hwang, You, Lay, Jou What's wrong with cascaded correlation learning network... 1993
2. Lange, Voigt, Wolf Growing artificial neural networks... 1994
3. Mohraz, Protzel FlexNet - a flexible neural network construction algorithm 1996
4. Treadgold, Gedeon A cascade network algorithm employing progressive RPROP 1997
Мне лень было выискивать сравнительные циферки в имеющейся полусотне статей по каскадным сеткам, поэтому указал только статьи с картинками. Но и по этим результатам (вспомнив еще эксперименты Пречелта, Дж.Шавлика с соавтором, Янга и Хонавара, и т.д.) можно сказать, что у исходного каскора врожденные траблемы именно из-за не сильно удачной схемы роста сети, корреляционного критерия при обучении нейронов-кандидатов, замораживания нейронов в сети, поэтому фактически по всем базовым положениям Фальмана и Лебиера (кроме как предложения использовать растущие сети) вердикт однозначен: исходные предложения были неудачны. |
|
| Вернуться к началу |
|
 |
Nickolay Martinov Новый посетитель

Зарегистрирован: 27 Июн 2005 Сообщения: 7
|
Добавлено: Ср Июн 29, 2005 4:18 pm Заголовок сообщения: |
|
|
| Цитата: | Я про скорость обучения и не говорил - поэтому на нее делать упор тут не буду, а имел в виду качество обобщения у нейросеток
|
Вы говорили про решение двух спиралей. Но... да, готов согласиться, что у Cascor проблемы с обобщением. Но это не означает, что все его недостатки присущи и другим каскадным сетям.
| Цитата: | ведь если сетка не может обучится, нафиг смотреть на ее быстроту обучения?
|
Высокая скорость обучения не означает низкой обобщающей способности. Backprop, например, очень медленный, а застрять в локальном минимуме ему гораздо легче, чем любому адаптивному алгоритму, который к тому же обучит сеть быстрее.
| Цитата: | | Пречелта, Дж.Шавлика с соавтором, Янга и Хонавара, и т.д.) можно сказать, что у исходного каскора врожденные траблемы именно из-за не сильно удачной схемы роста сети, корреляционного критерия при обучении нейронов-кандидатов, замораживания нейронов в сети, поэтому фактически по всем базовым положениям Фальмана и Лебиера (кроме как предложения использовать растущие сети) вердикт однозначен: исходные предложения были неудачны. |
Cascor - это еще не все каскадные сети и я бы не стал судить Фалмана. Названия я приводить не буду, но на citeseer`е не одна и не две статьи, где приводится сравнительный анализ различных алгоритмов и, честно говоря, я не помню, чтобы Cascor показывал худшие результаты чем backprop. Лично мне нравится S_Casper с кросс-валидацией. |
|
| Вернуться к началу |
|
 |
Victor G. Tsaregorodtsev Эксперт

Зарегистрирован: 28 Июн 2005 Сообщения: 114 Откуда: Красноярск
|
Добавлено: Ср Июн 29, 2005 5:28 pm Заголовок сообщения: |
|
|
>Backprop, например, очень медленный, а застрять в локальном минимуме ему гораздо легче, чем любому адаптивному алгоритму, который к тому же обучит сеть быстрее
Ну прямо очень медленный
См. недавние работы Wilson&Martinez, LeCun, меня родимого (конкретные ссылки и текст моей статьи есть у меня на сайте) - никакой он не медленный, с хорошими настройками просто летает при онлайн-обучении. Про зависимость ошибки обобщения бэкпропа от величины шага есть более ранняя статья Wilson&Martinez, так что обобщение - это свойство не архитектуры сети (слоистая, растущая,...), а итоговых внутренних свойств сети (весов синапсов, производных), о чем говорят теор.результаты Шин-Ичи Амари с соавторами, Петера Бартлетта и т.д. И в слоистых сетях наиболее просто эти индикаторы отслеживать параллельно с обучением, чтобы поймать минимум ошибки обобщения. С растущими сетями сложнее эти фишки использовать - подбор настроек алгоритма и свойств сети будет более эмпиричен.
>Лично мне нравится S_Casper с кросс-валидацией
Дык, я в ту же сторону и намекал - к списку указанных мной доработок исходного каскора можно добавить и отбор нейронов-кандидатов (и дообучение сети после встраивания нейрона) с учетом еще и валидационной выборки. Правда, сейчас точно авторов не вспомню (лень перелистывать папку с тремя сотнями страниц распечатанных статей по растущим сетям), но вроде бы там было это предложение на фоне другого алгоритма, не с-каспер. Это я к тому, что доработки и улучшения каскора носили массовый характер, значит, не все в порядке было в королевстве датском.
Что-то мы тут друг перед другом извилины растопыриваем - надо придти к консенсусу. Я не отрицаю интересности и полезности идеи растущих сетей, могу соглашаться с их значительными преимуществами по сравнению с другими архитектурами. Но просто хотел отметить, что базовый вариант Фалмана сейчас сильно проигрывает более поздним улучшениям, причем улучшения шли по всему фронту идей. Вам не нравится исходный бэкпроп, Вы предпочитаете более свежие алгоритмы - так и у меня та же позиция в плане алгоритмов обучения растущих сетей (старые результаты - это, конечо, классика, но в реальной работе лучше использовать последние достижения нейронауки и практики). |
|
| Вернуться к началу |
|
 |
Nickolay Martinov Новый посетитель

Зарегистрирован: 27 Июн 2005 Сообщения: 7
|
Добавлено: Ср Июн 29, 2005 6:55 pm Заголовок сообщения: |
|
|
Согласен.
Решение зависит от задачи и конкретных условий. |
|
| Вернуться к началу |
|
 |
usdeur Новый посетитель

Зарегистрирован: 20 Апр 2006 Сообщения: 2
|
Добавлено: Сб Июл 01, 2006 3:06 am Заголовок сообщения: |
|
|
ОБЪЕКТИВНОЕ не способно ошибается!
СУБЪЕКТИВНОЕ не может быть без погрешностей и ошибок!
После такого знания = ОЧЕВИДНО! Надо не медленно менять своё мировоззрение, что б жить по объективным Законам. Поскольку это сверх задача, то надо признать - Чел ПОРОЧЕН по своей СУТИ и рождён для понимания своих ошибок и то только взяв их как опыт на тот свет !
Компромисс же возможен уже сегодня – это EXPERT- Он не ограничен временем и пространством.
Следовательно, ему такая нагрузка под силу, експерт уйдёт от всяких субъективностей, если вы ему прикажете. Я буду доверять Т/Р своему эксперту. Для этого есть ВНУТРИННИЕ РЕСУРСЫ ТЕКУЩЕЙ ЦЕНЫ + ряд принципов.
ВОПРЕКИ такого подхода к ОБЪЕКТИВНОСТИ На форумах много Красиво написанного.
ОДНАКО позвольте уточнить. Все ведут речь о внешних обстоятельствах (ДАННЫХ) – а они все субъективны.
Такое ощущение, что про объективность, предпочтения, про отличительные признаки субъективного – всё нехотят даже слушать. И этим искажают само СОБЫТИЕ.
НЕТ объективности, даже тогда, когда казалось бы имеется все основания, для того, что бы хорошую идею, как например про слои РЕШАТЕЛЕЙ NeuroShell - не испортить …
ПОРЧА в том, что Предпочтя при выборе способа решения, количество слоёв – внедряется Суть ничтожности. Тогда остаётся только погрешность. Данные уже ею ограничены, ибо нарушена - многомерность, нет тут её.
Т.Е. – это означает – отдано предпочтение субъективной РАЗМЕРНОСТИ.
Это не столь опасная ошибка, если нет других, таких же аналогичных.
Но в том то вся и беда, что шаг за шагом, так же как на этом примере, вводятся аналогичные размерности, это повсеместно стало принципом у всех аналитиков.
Это делает СИСТЕМУ ограниченной до ничтожного события и обстоятельства. Т.Е. Тут уже объективна только большая погрешность. Господа, Нафиг она нам нужна?
Применяемая трейдерами инфо – ВНЕШНЯЯ. Т.Е. Всё то, что подаётся на вход NS или на 100 входов NeuroShell - суть одна = ограниченная пространством и временем – это есть доказательство её ВНЕШНЕГО и стороннего происхождения.
В моём понимании – это означает – так с помощью ПОРОЧНОЙ субъективности, все ищут УСТОЙЧИВУЮ доходность.
Совершенно иная СУТЬ та, что состоит из аналогичных РЕСУРСОВ - но объективных ДАННЫХ. Они больше соответствуют желанной СУТИ и результату на выходе NeuroShell. А речи о слоях нейронов не лишние, но и не настолько важны, что бы их идеализировать.http://skuki.net/index.php?act=Post&CODE=02&f=3&t=8006&qpid=264270
Чел.. так устроен что ему удобнее пользоваться конкретными данными от внешних обстоятельств, и незачем думать при этом, - ОБЪЕКТИВНЫ ли эти данные.
Неопределённостями внешних данных, как правило, если и пользуются, то на уровне расчётов, (математика, ТА, и много всяких исторических данных) – Т.Е. сплошная НАУКА – она всё и всякое только и ограничивает. Наука не бывает – ОБЪЕКТИВНОЙ. Она лишь ЖАЛКОЕ отражение ИСТОРИЙ. Истории нге лечат, историями калечат… Они только поэтому и проявлены, - это одно из характерных свойств СУБЪЕКТИВНОСТИ. Объективности не проявляются, но эксплуатируются. Они как и всё то что ВЫСШЕЕ по сути – являются ВСЕСУЩИМИ. Это уже характерное свойство ОБЪЕКТИВНОСТИ.
КЛАС грубой, неочищенной от субъективизма материи – это не только сливки. Наоборот, СЛИВКИ уже показывают направление в сторону объективного качественного СОБЫТИЯ, хотя и проявлено.
ОДНАКО, стремление к комфорту, к удобству эксплуатации данных, Чел.. невольно уходит с пути к ИСТИНЕ. Мой же путь в том, что б не модифицировать, не экстраполировать, не аппроксимировать, и вообще отказаться по максимуму от всякой математики и алгебры и от аналитики. Конечно без них не обойтись, однако стремление к дистанции от них должно ДОМЕНИРОВАТЬ. Данные должны быть такими, что б их не аппроксимировать, что бы выбрать из них предпочтения уже при входном контроле, на пути к этим данным, где они уже сами по себе будут иметь решение в виде желанного РЕСУРСА – подаваемого на вход NS. Это уже – АВТОПИЛОТИРУЕМЫЕ данные. И такое возможно. Т.Е. – их суть готова к применению и что характерно – без дополнительного тестирования, и без дополнительных индикаторов. Сгустки качества – не могут шибаться. К тому же Индикаторы образны и панорамные и на дисплеях.
Отсутствие проявления Внутренних Ресурсов Текущей Цены, (ВРТЦ) – как Понятия эквивалентно функциям -ЧЁРНОГО ЯЩИКА, на панорамах мониторов, соответствует СУТИ того, что вся работа аналитиков – не по СУТИ желанного.
Понятие ВРТЦ = эквивалентно функциям -ЧЁРНОГО ЯЩИКА – это Не означает, невозможность эксплуатации тех объективных ресурсов, которые из такого ящика будут извлекаться в силу того, что там они имеются в СГУЩЁНОМ состоянии. Именно в Ч.Я. есть все, нам необходимые математические модели и функции, применение которых мы даже не подозреваем, а эксплуатировать будем посредством ЧЯ – наш EXPERT. Эти законы математики, как и паттерны тренда, ещё не имеют описаний и ещё не открыты гениями математики, или аналитики.
Сгущённость объективности – ОЧЕВИДНА в 1000 жизненных примеров.
Выбор нами таких предпочтений, о которых я тут сознательно не умалчиваю, даст нам в свою очередь систему – уже с минимизированной погрешностью в режиме АВТОПИЛОТА.
Это позволит понять суть НОУ-ХАУ, для этого я приведу ряд примеров –они ниже.
Общая Ошибка у учёных, НЛПишников, и на FOREX у ТРЕЙДЕРОВ в том, что все полагают, что, будто не имеют возможности управлять рынком FOREX или судьбою.
ИНАЧЕ говоря! Многое определяется не только у трейдеров, но и у НЛПишников тем, что мы принимаем за ЦЕЛЬ. Всё что мы видим, понимаем, анализируем, изучаем - = ТУФТА... Т.Е. как вы уже поняли – это НЕ СУТЬ, а лишь ОСТРОВА с навязанными нам своими лжи панорамами. Т.Е. все проявления лишь СУБЪЕКТИВНЫЕ ПАНОРАМЫ, которые не только не СУТЬ, но ещё и формируют наш АЛГОРИТМ МЫШЛЕНИЯ.
Этот то алгоритм и есть сама ПОРОЧНОСТЬ. Порочность по СУТИ настолько, что она не способна даже дистанцироваться от СУБЪЕКТИВНОГО.
ПОРОЧНОСТИ в методах работы так много, что даже зная о преимуществе объективного - мозг продолжает жить по тенденциям -ограниченных сущностей. ... - "ХОЧУ, ЧУВСТВУЮ, ОЩУЩАЮ и всё это вопреки ОБЪЕКТИВНОСТИ". - Как много чел согласятся со мной в том, что подобная чушь – управляет нами и редко соответствует СУТИ УСПЕХА на FOREX или в НЛП.
Обращаясь же к волшебной палочке в виде НЛП – чел этим подписывается в своей нелепости и ничтожности.
Однако, при некоторых условиях, НЛП, действительно! Но это если оно как событие - действующее и ОБЪЕКТИВНО, что как сами понимаете бывает - очень редко.
После этого - Хорошо запомним! = Лишь Объективность позволяет управлять FOREX, как и судьбою, и в НЛП и в достижении успеха и во всяком результате.
Иначе говоря, АКСИОМА;
Если вашими деньгами и вами управляют кто то, ИЗ ВНЕ, то увы, вы уже на 100% - себя сами воткнули в лохотрон.
При этом виновных нет кроме вас самих. Это психология ЖЕРТВЫ.
Вероятность ухода от нежелательных результатов И в ТОМ, если чел сумеет обуздать в себе ЭМОЦИИ. И вместо них станет немного роботом, автоматом, хотя бы в той степени, где необходим профессионализм и где можно сказать….. Не зная броду, не хожу в воду, - поэтому сохраню своё ДЕПО. Тогда и РЕСУРСЫ придут и РАСПОКУЮТСЯ как бы на АВТОПИЛОТЕ И позволят управлять FOREX и лохотроном. Это уже 99% вероятности, и будет УСПЕХ в ваших руках. Собрав не математические формулы, не учёных, в момент решения ТРИЗовской задачи, а сгущенные обстоятельства по сути, тут и УЗНАЕМ И ПОМНИМ то, что в капле сливок (Т.Е. в точке) меньше неопределённостей, и значительно больше качеств молока. Вы по отношению к себе, зразу ГРЕШНЫ, если ищите тенденции в ВНЕШНИХ обстоятельствах или в НЛП, или в прогнозах аналитиков.
[b]Для эксплуатации Неопределённых Внутренних Ресурсов Текущей Цены, их НЕОПРЕДЕЛЁННОСТИ нам сразу придётся с ними сотрудничать и при создания установочного CD и EXPERT с МТ-3-4, ИНТИЛЕКТ которых, объединит ПО диска с WinWaves 32, NS, NeuroShell Dey Traider, NeuroShell2 release 3.0 рус.вер (NSTRADER rus), [TRADER]NeuroShell Trader 3.3, ELWAVE rus v7.1 , Neuro Hit, NeuroSolutions rus, TradingSolutions rus. Тогда каждая из сотрудничающих сторон, получит по уникально настроенному рабочему месту ТРЕЙДЕРА. Тогда не придётся лишний раз сливать ДЕПО. Вспомним…
При сравнении тренда с змеёй или аллигатором. СУТЬ змеи это не то, что бы в момент глотания пищи, изучать свою длину тела или его историю изгиба - ТА. Не считает змея и номеров волн по Элиот. СУТЬ же змеи – остаётся.[/B] Тут об ПО по ЭЛИОТ: http://apps5.oingo.com/apps/domainpark/domainpark.cgi?client=netw8744&s=NEUROSHELL.NET
НЛПишник или Трейдер поступающий так же - ПО СУТИ, – будет больше соответствовать сути ЗМЕИ, ТРЕНДА, АЛЛИГАТОРА. В этом УСПЕХ трейдера. - СУТЬ – она ВАЖНЫЙ признак ОБЪЕКТИВНОСТИ, но не единственный. К тому же ВНЕШНИЕ обстоятельства, так или иначе, проявлены. Но, Все они лишь ОСТРОВА в океане стихий. Мыже ОБЯЗАНЫ ПОМНИТЬ… Суть островов в том, что они все меж собой соединены в единое целое под океаном стихий.
Спросим сами себя – где ОСТРОВНОЙ СУТИ БОЛЬШЕ, в их видимых частях панорам? Или в том, что от нас спрятано? Я полагаю – теперь это для вас уже ОЧЕВИДНО.
И… EXPERT с установочным CD Это уже = ТАНКОДРОМ = основа для рабочего стола трейдера.
Тут АЛГОРИТМ поведения системы – это уже 70% работы, которые мною сделаны, нам надо ВНЕДРИТЬ на CD оставшиеся 30%. Человек - дрянная и порочная СИСТЕМА - даже у гениев больше ошибок, чем у эксперта.
Желаете понять, как работают неопределённости? И у НЛПшников и для трейдеров – Тогда ещё не один пример… Сообщаю… . Но… только для тех, кто хочет дальше читать, что бы затем и сотрудничать.
Пишите и я вам ВЫШЛЮ – ПРОДОЛЖЕНИЕ. _________________ Видимые панорамы островов - это не их СУТЬ. СУТЬ островов, объединена ЦЕЛЫМ в стихии океана. СУТЬ надо брать и ЭКСПЛУАТИРОВАТЬ, а не анализировать.
только мал мой опыт в написании EXPERT |
|
| Вернуться к началу |
|
 |
DmitryShm Участник форума

Зарегистрирован: 09 Апр 2006 Сообщения: 33 Откуда: Россия, Казань
|
Добавлено: Пн Апр 30, 2007 1:54 pm Заголовок сообщения: ботва |
|
|
Вот только ботвы не надо. Это уводит от конструктивного общения. Ее и так придостаточно во множестве непрофессиональных статей. Спасибо, это не то, что нужно специалистам сейчас. Многобуков никогда никуда не приводили. Философам место на филфаках и тому подобных заведениях. _________________ знаю, что не знаю |
|
| Вернуться к началу |
|
 |
|
|
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете голосовать в опросах
|
|