Игрушка с использованием нейронных сетей

YUAL

Доброго вечера :)
Может быть, у кого-нибудь завалялся код какой-нибудь простой игры с использованием нейронных сетей? Крестики-нолики нельзя, а вот шашки, реверси, "четыре в ряд", пинг-понг и прочее вполне бы подошли...
Код на delphi, php, C++, C#, Java - только не бейсик ;)
С меня пиво)

ramsit

можно поинтересуюсь, зачем?
если ты хочешь посмотреть или кому-то показать, что такое ИНС, то такого рода игры очень неудачный пример, по целому ряду причин. Есть намного более достойные вещи, где они действительно рулят.
и да, тебе нужен пример любой-любой сети или банального перцептрона со скрытым слоем?

YUAL

Да нет, это курсовую нужно сдать, а писать лень безумно.
Так-то понятно, что пример ни разу не показательный.
Ну и хочется хоть какой-то сэмпл, чтобы с нуля не писать.

ramsit

курсовую, конечно же, в этом семестре защищать? :D
сформулируй тему тогда, ну и по возможности поменяй.
тут дело не в показательности/непоказательности, а в том, что это будет очень сложно.
формализовать задачу все равно придется, иначе размерность задачи будет слишком велика. а размерность - это проклятие ИНС. а к формализованной задаче можно применить норамльный алгоритм.
более-менее эффективное решение задачи для рендзю, например (почти 5 в ряд) вероятно потянет не на курсовую, а на кандидатскую/докторскую.

YUAL

Защищать во вторник,тему сменить нельзя)
Задача 3*3 решается без сложностей, 4*4 уже противно, а больше и не требуется :)

ramsit

мда. тебе защищать?
тогда придется не защищать, а защищаться...
ну таки сформулируй тему. а еще где и у кого защищаешься. ну чтобы посочувствовать можно было
есличо, вот тут может быть что-то.
http://gomocup.wz.cz/gomoku/download.php#src

durka82

Раз время поджимает - может хотя бы на реализации самих сетей сэкономить (взять например Матлабовский тулбокс) и сконцентрироваться на алгоритме?
Можно попробовать например самообучающуюся систему собрать и попробовать её пообучать.
По крайней мере можно будет показать, что ты работал надо проблемой (или это не первый курсовик по этой теме?).

ramsit

эээ, я не думаю, что топикстартер хотет реализовать не только саму сеть и ее обучение, но даже свою игрушку на базе готовой сети. причем последнее на порядки сложнее, т.к. реализовать простейший перцептрон + алгоритм обратного распространения можно быстро, а вот применение готовой сети - выбор, подготовка обучающих данных и обработка результатов - та еще уличная магия.
короче говоря, предполагаю, что у топикстартера немного шансов, но не потому, что много сделать надо - и не такое некоторые успевали. вот что-то он рвения не проявляет. так бы мы ему накатали кое-что сообща, но он не особо в треде появляется. или может он уже решил проблему?

YUAL

Не, не решил, спать ушёл)
С обучающей выборкой - можно её по рэндому нагенерить, для поля 4*4 с элементарными алгоритмами сойдёт...
А что за инструментарий пользовать - в общем, пофигу.

ramsit

ну так ты задачу сформулируй точно как можно более. и да, ты насколько знаком с ИНС?
вот тебе ближе к делу ссылка - тут достаточно каких-то исходников на жабе (реверси)

YUAL

Мм. Ни одного исходника не заметил. Там одни executable.

banderon

а размерность - это проклятие ИНС
Интересно, а с помощью новомодных тензорных поездов можно обойти эту проблему?

ramsit

охты, я походу отстал от поезда немного.
кинь ссылку, что ет за жесть? гугль молчит

banderon

Да, пока и правда мало в гугле можно найти…
http://scholar.google.com/scholar?q=tensor-train
Статьи в основном только в этом году стали появляться

ramsit

здорово, пасиб
из второй статьи:
The exponential growth in d is known as “curse of dimensionality”. It can be inferred that computations for large d are not feasible unless the tensors are presented in a structured form described by much lesser parameters than nd.
тут вся соль. то есть они берут ихнее TT разложение и приходят к меньшему количеству переменных, но эти переменные теперь содержат несколько параметров. пока не понял, как это может привести к профиту на сферической задаче в вакууме
буду курить, спасибо

ramsit

кстати, метод развивается нашеми соотечественниками из ИВМ РАН

banderon

Собственно от них я про это разложение и узнал :)

zya369

пинг-понг

:shocked:
при чем тут нейронные сети :confused:

banderon

Защищать во вторник,тему сменить нельзя)
Расскажи потом, как защита прошла :)

ramsit

они там преобразовывают матрицу N x N в d-мерный тензор 4 x 4 x ... x 4, N=2^d, а потом как-то пытаются апроксимировать этот тензор полиномиальным количеством переменных. блин, времени сейчас нет со всем этим разобраться.
Tensor-train decomposition is a new instrument with a potential of breaking the “curse of dimensionality”.
заманчиво звучит, но без 'potential' было бы куда лучше :D
Оставить комментарий
Имя или ник:
Комментарий: