[нубский вопрос] посоветуйте движок
Приведи пример задачи, а то под сбор данных из внешних источников и записью во внутренние базы попадают и индекс у поисковика, и Youtube, и cian.ru, и ваще чо угодно.
Ну, скажем курсы валют с сайта РБК (для примера)
Я хочу вот каждый день собирать такие данные и записывать к себе.
Есть еще определенная проблема, что некоторые публикуют ежедневные данные, например, в виде эксель-файлов (я не очень с похапе и вообще с таким проганьем, поэтому меня это повергает в легкий шок)
И второе - парсер. который будет запускаться по крону и тырить инфу с других сайтов, складирую её в твою БД. вот его придётся писать с нуля скорее всего

Поддерживаю сообщение . Еще вопрос: что ты потом с этими данными хочешь уметь делать? Генерировать отчеты, графики или считать какие-то отдельные цифры? Пользоваться будешь ты один или широкий круг людей (в зависимости от этого объем работ, очевидно, разный — "для себя" можно и голые sql скрипты гонять, а потом засовывать результаты в excel, если это не слишком частая операция)
Отчеты, графики, модели.
Широкий круг людей.

Стоимость разработки первого случая оценивается миллионами имхо.
Второй попроще.
я такую штуку делал, только не для веба, а для экселя, просто миллиарды.
Ну удачи, фигле
ЕМНИП, у Оракла есть настраиваемое решение для сбора из кучи источников, но деталей, к сожалению, не знаю. Да и стоит оно, судя по тому, что это Оракл, не копейки.
1. В php достаточно просто реализуется механизм парсинга страниц, если шаблон известен
2. Ничего экстра-сложного для этого в php знать не надо.
Т.е. вся сложность написать парсеры для каждого сайта по отдельности, ну и придумать структуру базы, чтобы удобно было инфу уже систематизировать.
+вьюер
написать парсер под каждый тип - xml, html(как подвид xml SQL
потом все это скинуть в одну помойку и оттуда доставать для анализа
проблема в масштабе - стоимость там сильно нелинейно растет.
А в пых-пыхе есть что-нить для работы с экселем?
Всегда можно с csv поработать.
2Саша: всё верно говорят, граббер самому писать, это не сложно.
Всегда можно с csv поработать.Ну не всегда. Чтобы с csv поработать, нужно чтобы стыренный откуда-то эксельник (прайс там или еще чего) кто-то сконвертил в csv сначала, т.к. инфа собирается без каких-либо договоренностей с владельцами ресурсов, то на месте существующей эксельки ничего в другом формате не появится - нужно будет все равно парсить именно эксельку
Стоимость - это некоторая функция от количества источников, количества типов промежуточных данных и количества визуализаторов. Говоря о лямах, я имел в виду промышленное применение (>1000 источников). У ТС, видимо, задачи не оч масштабные просто.

У меня возникает ощущение, что ты собираешься это купить и торгуешься.

у меня в пределах 20 источников, наверное пока.
Оставить комментарий
sap978
Привет всем!Мне нужно сделать типа сайта, но нужен модный движок, в котором можно удобно обрабатывать данные из внешних источников и записывать их во внутренние базы данных.
Чего такого присоветуете? Или всё самому писать?