Нейронные сети (быть или не быть - есть спецы?).
а может генными алгоритмами?
а может генными алгоритмами?а это что за зверь?
ну там долго объяснять, но смысл в том, что ты некоторое множество входов заставляешь меняться (мутировать) и по некоторым законам развиваться, а убиваешь лишние элементы оттуда, согласуясь с некой функцией качества. В результате получаешь входы, на которых функция качества всё выше и выше.
чорд уже поздно, я не уверен что доходчиво объяснил, лучше тебе в инет залезть...
чорд уже поздно, я не уверен что доходчиво объяснил, лучше тебе в инет залезть...
уже... В принципе ты доходчиво объяснил
Вопрос в том - сработает ли это... ну и потом... гхм.. мне кажется это дольше будет, чем сеть натренировать... Этож почти монте карло получается... в смысле что надо очень много раз просчитать все будет... Кстати - а что насчет либ/прог?
И еще - что считать входным и выходным параметром? Типа выход нужен 1 как я понимаю. значит фазу надо тоже в параметры... бррр... действительно поздно
Вопрос в том - сработает ли это... ну и потом... гхм.. мне кажется это дольше будет, чем сеть натренировать... Этож почти монте карло получается... в смысле что надо очень много раз просчитать все будет... Кстати - а что насчет либ/прог?И еще - что считать входным и выходным параметром? Типа выход нужен 1 как я понимаю. значит фазу надо тоже в параметры... бррр... действительно поздно

что-то при ближайшем рассмотрении я не понял условия задачи, хотя я по сетям уж точно не спец.
ну да ладно
Думаю, нейронными сетями ты можешь разрулить все случаи, где ты заведомо можешь корректно обучить сеть. Однако, если, например, ты ищешь максимум неизвестной функции на некоем множестве, я не уверен, что применение сети тебе вообще чем-то поможет (тебе не на чём будет сеть натаскивать тут как раз вроде рулят генные алгоритмы или simulated annealing для общего случая, когда ничего не известно.
что в твоём случае - не знаю, но фраза про градиентный спуск меня сподвигла написать предыдущий абзац
ну да ладно
Думаю, нейронными сетями ты можешь разрулить все случаи, где ты заведомо можешь корректно обучить сеть. Однако, если, например, ты ищешь максимум неизвестной функции на некоем множестве, я не уверен, что применение сети тебе вообще чем-то поможет (тебе не на чём будет сеть натаскивать тут как раз вроде рулят генные алгоритмы или simulated annealing для общего случая, когда ничего не известно.
что в твоём случае - не знаю, но фраза про градиентный спуск меня сподвигла написать предыдущий абзац
Нейронные сети для такой фигни и предназначены. Когда влом думать, что из себя представляет функция, а более-менее хорошее приближение иметь хочется.
Генные алгоритмы не гарантируют нахождения максимума, к тому же они тормозные.
а что вообще гарантирует нахождение максимума?
видимо, я неправильно понял постановку задачи
видимо, я неправильно понял постановку задачи
Правильно ли я понял, что стоит задача построения предиката принадлежности данных к чему-то?
Или здесь есть задача приближения функции и поиска в ней минимума?
Или еще как-то можно описывать данные функцией?
Или здесь есть задача приближения функции и поиска в ней минимума?
Или еще как-то можно описывать данные функцией?
> Ввиду того, что параметров много (а данных не очень) градиентный спуск не работает.
Умные люди советуют использовать неградиентные методы:
Нелдера---Мида для не(очень)больших размерностей
и Хука---Дживса для очень больших.
> ЗЫ. навряд ли это существенно, но задача сводится
Все задачи можно свести к оптимизационным.
Например, вычисление квадратного корня можно свести к поиску минимума f(x) = (x^2 - a)^2.
---
...Я работаю антинаучным аферистом...
Умные люди советуют использовать неградиентные методы:
Нелдера---Мида для не(очень)больших размерностей
и Хука---Дживса для очень больших.
> ЗЫ. навряд ли это существенно, но задача сводится
Все задачи можно свести к оптимизационным.
Например, вычисление квадратного корня можно свести к поиску минимума f(x) = (x^2 - a)^2.
---
...Я работаю антинаучным аферистом...
Все задачи можно свести к оптимизационным
Наглая ложь.
просто имхо у Контры очень специфические задачи все...
типа "сферического коня в вакууме"
оттуда же кстати получается и что лисп - вершина эволюции ЯП
типа "сферического коня в вакууме"

оттуда же кстати получается и что лисп - вершина эволюции ЯП
оттуда же кстати получается и что лисп - вершина эволюции ЯНе вершина, но что-то к ней весьма близкое.
Вершина эволюции — это то, к чему пришли в результате эволюции. Лисп же один из первых языков программирования, строился с нуля. Он лежит в основании эволюции, а не является ее вершиной.
Попробуй спросить на форуме тут http://basegroup.ru
Может что подскажут.
Может что подскажут.
> оттуда же кстати получается и что лисп - вершина эволюции ЯП
Это у тебя так получается.
---
"Narrowness of experience leads to narrowness of imagination."
Это у тебя так получается.
---
"Narrowness of experience leads to narrowness of imagination."
Вершина эволюции — это то, к чему пришли в результате эволюции. Лисп же один из первых языков программирования, строился с нуля. Он лежит в основании эволюции, а не является ее вершиной.Это бред. Лисп - это не язык типа С, у него было множество различных реализаций, которые постепенно улучшались. Современную форму Лисп приобрел только в 80-х годах. И это не говоря о том, что Scheme, которая больше соответствуют моему пониманию идеального Лиспа, развивается до сих пор.
Ну и чтобы два раза не бегать, скажи мне какие такие прогрессивные черты приобрели Algol descendant языки в процессе эволюции, которых нет в Лиспе.
Где и в чём?
Уже давно не новость, что все законы природы можно выразить в виде оптимальных принципов.
Ты лучше бы подумал над тем, что решение твоей задачи сводится к какой-нибудь системе диффуров.
---
"Математик может говорить, что ему хочется,
но физик должен, хотя бы в какой-то мере, быть в здравом рассудке."
Уже давно не новость, что все законы природы можно выразить в виде оптимальных принципов.
Ты лучше бы подумал над тем, что решение твоей задачи сводится к какой-нибудь системе диффуров.
---
"Математик может говорить, что ему хочется,
но физик должен, хотя бы в какой-то мере, быть в здравом рассудке."
Ясно что сводится блин
К дифурам она никаким хреном не сведется
Потому что все чисто геометрически. А насчет прав или нет - я имел ввиду то, что существуют неградиентные алгоритмы, способные найти экстремум (не локальный) функции 300 переменных 
К дифурам она никаким хреном не сведется
Потому что все чисто геометрически. А насчет прав или нет - я имел ввиду то, что существуют неградиентные алгоритмы, способные найти экстремум (не локальный) функции 300 переменных 
У тебя на функцию есть какие-то разумные ограничения?
По большому счёту, глобальный оптимум можно искать точно так же, как и в жизни,---
случайно тыкаясь в разные стороны.
Одна из разновидностей этого называется "simulated annealing."
Разумеется, никто не мешает тебе приделать это прокаливание к более рабочим средствам,
тем же Нелдеру---Миду или Хуку---Дживсу.
На самом деле, если у тебя область определения ограничена,
можно строить выпуклую огибающую.
Так тоже делают.
Но я не пробовал, поэтому ничего больше не скажу --- ищи сам.
---
...Я работаю антинаучным аферистом...
По большому счёту, глобальный оптимум можно искать точно так же, как и в жизни,---
случайно тыкаясь в разные стороны.
Одна из разновидностей этого называется "simulated annealing."
Разумеется, никто не мешает тебе приделать это прокаливание к более рабочим средствам,
тем же Нелдеру---Миду или Хуку---Дживсу.
На самом деле, если у тебя область определения ограничена,
можно строить выпуклую огибающую.
Так тоже делают.
Но я не пробовал, поэтому ничего больше не скажу --- ищи сам.
---
...Я работаю антинаучным аферистом...
Оставить комментарий
gsharov
В общем - зашел в тупик с одной задачкой и думаю - а не в них ли решения поискать