Как искать инфу
автоматически
или о том, как присваивать ум чужой при помощи
Интернета.
[Сергей Михайлов]
[С.М.] Я уверен, что значительную часть
необходимой информации можно найти через
поисковые Интернет-машины. Следует только
правильно сформировать запрос. Мои запросы
обычно содержат не больше пяти слов, ведь большее
количество слов трудно удержать в памяти.
Количество возможных вариантов запросов
ограниченно, как мне кажется, физическими
возможностями человека. Все возможные варианты
человек просто не может удержать в памяти.
Если машина ничего не выдала в ответ на запрос, то
это не значит, что информации нет, это может
означать то, что не правильно сформирован запрос
или то, что крутые парни купили первые строчки
поисковых результатов.
[Г.О.] И еще это может означать, что
надо поискать с помощью другой поисковой машины.
[С.М.] В размышлениях о том, как
автоматически искать информацию, находящуюся в
Интернете, я пришел к выводу, что следует брать
текст, на который должен быть похож ответ и как бы
просеивать его. Я предположил, что значимые слова
должны повторяться в тексте больше одного
раза. Те слова, что повторяются один раз,
выкидываем, короткие слова, например, те, что
короче четырех букв выкидываем тоже. Следует
создать также список из заведомо бесполезных
слов (пошел, увидел, обработал, хорошо ...).
Оставшийся список слов можно использовать в
качестве исходного материала для скармливания
поисковым машинам.
[Г.О.] Дополнительно я использую те
тексты, которые все же нашлись, но меня они не
устраивают. Среди них есть "слега то, что
надо", - в таких текстах можно найти уточняющие
мой поиск слова. Я беру оттуда эти дополнительные
слова и снова запускаю уточняющий поиск. После
этого по результату наблюдаю "стало лучше"
или "стало хуже". И так далее.
[С.М.] Текст программы, которая создает
список ключевых слов, можно найти здесь citycat.ru/iq/zip/keywords01.zip
. Описывать программу - труд не благодарный и
проще дать сам исходный текст. Тем более, что в
нем около двух сотен строчек. citycat.ru/iq/zip/keywords02.zip
[Г.О.] У Алексея Дубинского dubinsky@ukr.net на http://dubinsky.nm.ru есть
программа частотного анализа слов в тексте wordstat. Я пробовал, - хороший
иструмент.
[С.М.] Более продвинутые запросы
поисковым машинам можно было бы формировать,
если бы программа могла бы определять подлежащее
и сказуемое, а также определять модальность
действий (топор рубит дерево, дерево рубимо
топором). Но как составить такую программу, для
меня пока является загадкой. Может быть, кто-либо
из подписчиков задумывался над подобными
проблемами и может прислать мне ссылки о том, как
программно можно определять части речи?
Кстати, подобный анализ можно использовать и в
тренингах скорочтения. Представляете, нажал
кнопку, - и из текста стерлись все прилагательные!
[Г.О.] Мечтать не вредно! Мечтать - это
очень выгодно. Владельцы всех поисковых машин во
всем мире мечтают именно об этом. И вбухивают в
это жуткие деньги... Только, по слухам, у них еще
пока ничего не получилось...
Сергей Михайлов
Ссылка на сайт Скорочтение
при перепечатке обязательна.
Подпишитесь на бесплатную рассылку
о скорочтении.
Вы получите серию писем, в которых будет демонстрироваться простые и понятные упржнения на освоение навыка скорочтения. Вы узнаете о том, как сделать апгрейт мозгов и наконец, начать быстро читать.