|
neuroproject.ru Форум сайта компании НейроПроект
|
| Предыдущая тема :: Следующая тема |
| Автор |
Сообщение |
виктор Новый посетитель

Зарегистрирован: 05 Июл 2006 Сообщения: 1
|
Добавлено: Ср Июл 05, 2006 2:46 am Заголовок сообщения: Аппроксимация функции многих переменных. |
|
|
| Всем доброе время суток %) Я в общем почти не знаком с НС. Собственно вопрос как раз в том - следует ли знакомиться т.е можно ли с их помощью решить мою задачу (не бейте). Задача заключая в следующем: у меня есть программа, которая на основе ~300 параметров строит функцию x(y) грубо говоря (причем у - не один из параметров Собственно что это за функция... Представте шар, на котором установлены лампочки. 300 параметров описывают их распределение по шару и собственно ориентацию последнего. тогда y - это фаза, если шар вращать. x - интенсивность излучения, попадающего в глаз (от всего шара на данной фазе) Соответственно задача заключается в том, чтобы по известной (наблюдаемой) x(y) найти все эти 300 параметров. Естественно градиентный спуск не катит в этом случае. И тут я вспомнил о НС. Фактически имеется: реальные данные (по которым нужно искать параметры), симулированные данные (то, что выдает программа - т.е вектор параметров на входе и функция на выходе). Последних много. Точнее говоря - сколько угодно Подразумевается, что если сгенерить бесконечное множество таких симулированных функций, то среди них найдется и отвечающая реальным данным. Так вот вопрос - по вашему мнению - удастся ли построить и обучить сеть для нахождения вектора параметров? (с учетом того, что простой градиентный спуск ну никак не может выкарабкаться из множества локальных минимумов). И если да - насколько это "машиноемко"(ну если совсем примерно)? И вообще - с какой стороны к этому подбираться... Заранее спасибо за ответ |
|
| Вернуться к началу |
|
 |
siteadmin НейроПроект

Зарегистрирован: 10 Июн 2005 Сообщения: 81 Откуда: Москва
|
Добавлено: Ср Июл 05, 2006 3:22 pm Заголовок сообщения: |
|
|
наскока я понял вашу задачку по сути это обратная задача. у вас есть алгоритм, позволяющий на основе некоторого входного вектора параметров получить выходной вектор, описывающий функцию распределения интенсивности. И никто не мешает вам насчитать достаточное кол-во примеров.
можно попробывать использовать нейросеть для решения этой задачи. например, подавать сети на вход ф-ию распределения интенсивности (подавать на входы интенсивности в разных углах, можно еще как-нить предобработать все это) и на выходе иметь параметры. можно пробывать восстанавливать параметры как все вместе одной сеткой, так и по-отдельности. начать вполне можно с 3-слойного перцептрона, поиграться кол-вом скрытых нейронов. Кол-во отсчетов интенсивности, которые необходимо подавать на вход, оцените сами. Их не должно быть слишком много и не должно быть слишком мало. Насчет локальных минимумов тут надо пробывать, поиграться с моментами и тд, в любом случае надо экспериментировать.
Если учить сеть восстанавливать все 300 параметров, процесс обучения может затянуться надолго. Зато после обучения применение сети происходит очень быстро.
Вообще, нейросеть как универсальный аппроксиматор по-идее должна хорошо подходить для решения таких задач. |
|
| Вернуться к началу |
|
 |
DmitryShm Участник форума

Зарегистрирован: 09 Апр 2006 Сообщения: 33 Откуда: Россия, Казань
|
Добавлено: Вс Апр 29, 2007 11:47 pm Заголовок сообщения: пример плиз :) |
|
|
Приведите пожалуйста хоть один пример НС, которая аппроксимировала сколько-нибудь обширный класс функций. Например, C(K), где K-компакт. Не замахиваюсь даже на L_2(K). _________________ знаю, что не знаю |
|
| Вернуться к началу |
|
 |
|
|
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете голосовать в опросах
|
|