Список форумов neuroproject.ru neuroproject.ru
Форум сайта компании НейроПроект
 
 FAQFAQ   ПоискПоиск   ПользователиПользователи   ГруппыГруппы   РегистрацияРегистрация 
 ПрофильПрофиль   Войти и проверить личные сообщенияВойти и проверить личные сообщения   ВходВход 

Аппроксимация функции многих переменных.

 
Начать новую тему   Ответить на тему    Список форумов neuroproject.ru -> Нейронные сети
Предыдущая тема :: Следующая тема  
Автор Сообщение
виктор
Новый посетитель
Новый посетитель


Зарегистрирован: 05 Июл 2006
Сообщения: 1

СообщениеДобавлено: Ср Июл 05, 2006 2:46 am    Заголовок сообщения: Аппроксимация функции многих переменных. Ответить с цитатой

Всем доброе время суток %) Я в общем почти не знаком с НС. Собственно вопрос как раз в том - следует ли знакомиться т.е можно ли с их помощью решить мою задачу (не бейте). Задача заключая в следующем: у меня есть программа, которая на основе ~300 параметров строит функцию x(y) грубо говоря (причем у - не один из параметров Собственно что это за функция... Представте шар, на котором установлены лампочки. 300 параметров описывают их распределение по шару и собственно ориентацию последнего. тогда y - это фаза, если шар вращать. x - интенсивность излучения, попадающего в глаз (от всего шара на данной фазе) Соответственно задача заключается в том, чтобы по известной (наблюдаемой) x(y) найти все эти 300 параметров. Естественно градиентный спуск не катит в этом случае. И тут я вспомнил о НС. Фактически имеется: реальные данные (по которым нужно искать параметры), симулированные данные (то, что выдает программа - т.е вектор параметров на входе и функция на выходе). Последних много. Точнее говоря - сколько угодно Подразумевается, что если сгенерить бесконечное множество таких симулированных функций, то среди них найдется и отвечающая реальным данным. Так вот вопрос - по вашему мнению - удастся ли построить и обучить сеть для нахождения вектора параметров? (с учетом того, что простой градиентный спуск ну никак не может выкарабкаться из множества локальных минимумов). И если да - насколько это "машиноемко"(ну если совсем примерно)? И вообще - с какой стороны к этому подбираться... Заранее спасибо за ответ
Вернуться к началу
Посмотреть профиль Отправить личное сообщение
siteadmin
НейроПроект
НейроПроект


Зарегистрирован: 10 Июн 2005
Сообщения: 81
Откуда: Москва

СообщениеДобавлено: Ср Июл 05, 2006 3:22 pm    Заголовок сообщения: Ответить с цитатой

наскока я понял вашу задачку по сути это обратная задача. у вас есть алгоритм, позволяющий на основе некоторого входного вектора параметров получить выходной вектор, описывающий функцию распределения интенсивности. И никто не мешает вам насчитать достаточное кол-во примеров.

можно попробывать использовать нейросеть для решения этой задачи. например, подавать сети на вход ф-ию распределения интенсивности (подавать на входы интенсивности в разных углах, можно еще как-нить предобработать все это) и на выходе иметь параметры. можно пробывать восстанавливать параметры как все вместе одной сеткой, так и по-отдельности. начать вполне можно с 3-слойного перцептрона, поиграться кол-вом скрытых нейронов. Кол-во отсчетов интенсивности, которые необходимо подавать на вход, оцените сами. Их не должно быть слишком много и не должно быть слишком мало. Насчет локальных минимумов тут надо пробывать, поиграться с моментами и тд, в любом случае надо экспериментировать.

Если учить сеть восстанавливать все 300 параметров, процесс обучения может затянуться надолго. Зато после обучения применение сети происходит очень быстро.

Вообще, нейросеть как универсальный аппроксиматор по-идее должна хорошо подходить для решения таких задач.
Вернуться к началу
Посмотреть профиль Отправить личное сообщение Посетить сайт автора
DmitryShm
Участник форума
Участник форума


Зарегистрирован: 09 Апр 2006
Сообщения: 33
Откуда: Россия, Казань

СообщениеДобавлено: Вс Апр 29, 2007 11:47 pm    Заголовок сообщения: пример плиз :) Ответить с цитатой

Приведите пожалуйста хоть один пример НС, которая аппроксимировала сколько-нибудь обширный класс функций. Например, C(K), где K-компакт. Не замахиваюсь даже на L_2(K).
_________________
знаю, что не знаю
Вернуться к началу
Посмотреть профиль Отправить личное сообщение Отправить e-mail Посетить сайт автора
Показать сообщения:   
Начать новую тему   Ответить на тему    Список форумов neuroproject.ru -> Нейронные сети Часовой пояс: GMT + 4
Страница 1 из 1

 
Перейти:  
Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах


Rambler's Top100 Rambler's Top100