>Для анализа отбирались сообщения, затрагивающие отношения родителей с детьми, воспитание детей, происшествия с детьми (кроме обстоятельств непреодолимой силы), и тому подобное.
Это и так было очевидно, даже если заходить только на вотт. В 2012 году, начиная как раз с конца лета весь вотт буквально завалили темами про "ЮЮ". Более того: даже известно что за организация так старательно поднимает и пережевывает всю эту тему.
З.Ы. А почему "по-научному"? Если "по-научному", то где исходные данные как минимум?
Интересно. Но нет привязки к количеству уникальных событий и статистики событий в целом. И очень странный провал в ноябре 2012 - выбивается из картины целенаправленных усилий.
> А поясните пожалуйста: что вы имеете ввиду под привязкой к количеству уникальных событий?
Количество событий, послуживших поводом для сообщения в СМИ. Т.е. в 2011 - 1 событие = 5 сообщений, например, а с августа 2012 - на 1 событие - 12, 20, 150 сообщений. Т.е разные события освещаются или одни и те же. Плюс - что со статистикой в целом, насколько их больше-меньше-столько же было, как подхваченных СМИ, так и нет.
Кстати, количество дубликатов-сообщений не говорит однозначно о целенаправленном "ювенальном безумии", а может свидетельствовать и о повышении интереса к этой теме. Надо сравнивать с количеством дубликатов противоположной направленности.
> Провал — это флуктуация.
Флуктуация - это для случайных процессов. Если процесс целенаправленный, то такой флуктуации быть, по идее, не должно.
> Если процесс целенаправленный, то такой флуктуации быть, по идее, не должно.
Исправляюсь. Может быть флуктуацией, если количество сообщений выражается цифрами порядка 10. Но тогда "девятый вал ювенального безумия" выглядит очень бледно и свидетельствует скорее о простом повышении интереса к теме защиты детей. Вызванном, например, публикациями СВ.
> С ходу непонятно: то ли это комплимент вотту, который противодействует про-ювенальной волне, то ли известной организации.
Вотт ничему не противодействует. Вотт это сайт, на котором разные люди разных взглядов постят ссылки на разные материалы, а потом выставляя оценки определют, стоит ли другим посетителям посмотреть тот или иной материал.
> > Это и так было очевидно, даже если заходить только на вотт. В 2012 году, начиная как раз с конца лета весь вотт буквально завалили темами про "ЮЮ".
>
> Речь не про темы про ЮЮ, а про темы, якобы требующие вмешательства ЮЮ.
Цитирую из представленной статьи:
>Для анализа отбирались сообщения, затрагивающие отношения родителей с детьми, воспитание детей, происшествия с детьми (кроме обстоятельств непреодолимой силы), и тому подобное.
Если подборка осуществлялась не с целью обмана читателей, то в ней должны быть учтены и многочисленные истории о детях, которых отобрали у родителей.
Проверить данные в статье невозможно ввиду отсутствия этих самых данных в необработанном виде.
> Проверить данные в статье невозможно ввиду отсутствия этих самых данных в необработанном виде.
Это замечание особо тонкое, потому что написано человеком в браузере на компьютере с интернет-подключением. Где (в интернете) и присутствуют данные в необработанном виде.
> Исправляюсь. Может быть флуктуацией, если количество сообщений выражается цифрами порядка 10. Но тогда "девятый вал ювенального безумия" выглядит очень бледно и свидетельствует скорее о простом повышении интереса к теме защиты детей. Вызванном, например, публикациями СВ.
То есть, значениями порядка десяти? Цифры-то 0, 1, 2, 3, 4, 5, 6, 7, 8, 9 в десятичной системе счисления. Извините за мелкий троллинг. Но если оставить его в стороне, почему именно десяти?
Складывается такое ощущение, что у Вас складывается ощущение, что авторы статьи имеют ввиду, что у "закулисные манипуляторы", дёргающие за ниточки, отмеряют количество публикаций в данном месяце по линейке и спускают разнорядку в органы печати. На всякий случай: авторы не имеют этого ввиду.
Хочется, при наличии статистических флуктуаций, понять динамику изменений в информационном пространстве. Для этого выбрана методика такая, какая выбрана. Проведён количественный подсчёт и обработаны результаты. Представлены выводы, которые можно или принимать, или игнорировать. Методика описано детально с той целью, чтобы любой желающий мог повторить измерения по той же методике, либо улучшить методику, и провести свой количественный подсчёт, по-своему обработать результат и сделать свои выводы.
> > Проверить данные в статье невозможно ввиду отсутствия этих самых данных в необработанном виде.
>
> Это замечание особо тонкое, потому что написано человеком в браузере на компьютере с интернет-подключением. Где (в интернете) и присутствуют данные в необработанном виде.
Вероятно я не совсем точно выразился. Правильнее было сказать "исходные данные". В научных работах их или приводят вместе с материалом (как в приложениях, так и в самом тексте), или же дают на них ссылку.
Конкретно в этой статье не понятно что считал автор вообще. Для его проверки придется таки самому перелопатить десять тонн инфы и пересчитать, что, мягко говоря, многовато для простой проверки на достоверность.
Прочитав статью можно заметить, что графики для нее сделаны в весьма распространенном табличном редакторе. Почему бы автору не приложить ссылочку на скачивание? Если он действительно перелопачивал материалы за 2 года с более чем десяти новостных агрегаторов, наверняка он не на пальцах считал, а складировал ссылки, а потом подсчитал с помощью матаппарата этого самого табличного редактора.
Ссылка на исходный экселевский файлик содержащий ссылки на новости или же на кэш гугля (на случай если кто-то решил потереть материалы) после минимальной выборочной проверки сразу бы рассеяла все сомнения.
> Для этого выбрана методика такая, какая выбрана.
Данная методика не позволяет делать заключения, приведенные в статье. Не доказательная она. Это скорее похоже на СверхНаучный подход - выдвигается "априори верная" гипотеза и затем подбираются под нее доказательства.
> Хочется, при наличии статистических флуктуаций, понять динамику изменений в информационном пространстве.
При наличии таких флуктуаций рисовать равномерный "средний" рост - неправильно. Впрочем, на диаграмме с весами источников, "средний" и так нарисован весьма коряво, уходя в начале 2012 года в минус.
Т.е. претензии, вкратце, таковы - приведенное исследование не может служить обоснованием выводов, представленных, да еще столь эмоционально, в статье. Само исследование, точнее, интерпретация результатов, проведено неаккуратно, что также снижает его ценность.
Вы можете найти в научной библиотеке научные журнал (издательства Elsevier, например) и посмотреть: прилагается ли к нему пробирки с химическими веществами, о которых статьи или со штаммами бактерий. А в случае, если не прилагаются, то это, конечно, повод объявить журнал ненаучным.
Да ну? Есть трёхкратная разница в данных за 2011 и 2012 год. Это не гипотеза, а факт.
Рассмотрена динамика за 2012 год, которая характеризуется как годовой тренд роста событий.
Для ответа на вопрос "почему так, а не иначе?" предлагается некая объяснительная гипотеза происходящего. Графики не могут подтвердить истинность гипотезы, это работа следователя.
Графики показывают соответствие гипотезы наблюдаемым явлениям, опредмечивают её. Одно дело говорить "вбросы, вбросы, вбросы" беспредметно. Другое дело -- построить график и сказать, указывая на него пальцем: это -- вброс.
Так мы говорим о том, что сущность процесса меняется. "до" -- одна динамика со своими флуктуациями, "после" -- иная динамика со своими флуктуациями. Мы понятия не имеем о природе флуктуаций. То ли Петров Иванову не проплатил, то ли у Иванова пятка зачесалась. Всё, что у нас есть -- это график.
> Вы можете найти в научной библиотеке научные журнал (издательства Elsevier, например) и посмотреть: прилагается ли к нему пробирки с химическими веществами, о которых статьи или со штаммами бактерий.
В статьях, скажем, по химии — очевидно не прилагаются. Поскольку в ходе многих экспериментов от исходных веществ и штаммов бактерий мало что остаётся.
Но вот я сейчас открыл обсуждаемую в последнее время статью Регнеруса о различиях между детьми „обычных“, детьми гомосексуальных и детьми одиноких родителей (ага, научный журнал издательства Elsevier) — и вижу, что там сначала подробно описываются критерии составления выборки, а потом приводится табличка, в которой расписаны исходные данные поо принадлежности к соотв. критерию. Ну и если проследить обсуждение статьи после публикации — обнаружится, что автор работы по просьбе коллег предоставлял им и „сырые“ результаты опросов для перекрёстной проверки.
> Для ответа на вопрос "почему так, а не иначе?" предлагается некая объяснительная гипотеза происходящего. Графики не могут подтвердить истинность гипотезы, это работа следователя.
А теперь — внимание, сюрприз. Если мы выдвигаем гипотезу — то следует построить графики, проанализировать их, сопоставить с предлагаемым гипотезой модельным поведением и проверить на критерий согласия. В результате по критерию согласия гипотеза либо принимается (признаётся истинной в рамках рабочих допущений), либо отвергается. То бишь, графики именно что подтверждают истинность.
Обратно, если мы хотим провести кросс-секционное исследование (т.е. тот самый „количественный анализ“ в твоей терминологии) — то мы изначально не можем выдвигать никакие гипотезы о причинно-следственных связях (т.е. „объяснительные“ в твоей терминологии).
> Одно дело говорить "вбросы, вбросы, вбросы" беспредметно. Другое дело — построить график и сказать, указывая на него пальцем: это — вброс.
Если строить графики так, как это делается в статье — то приписывание любого количественного увеличения строго „вбросам“ именно что беспредметно. Ибо не дано обоснования, почему мы объясняем наблюдаемое именно вбросами, а не, например, увеличением общего числа публикаций по всем темам.
> Мы понятия не имеем о природе флуктуаций. Всё, что у нас есть — это график.
Что не мешает вам, не имея этого понятия, объяснять любые флуктуации исключительно вбросами.
Вот это — и есть случай „априори верной гипотезы“.
Так вот, камрад, рассказываю что я вижу. А вижу я содержание и список таблиц в статье. Чтобы познакомиться со статьёй целиком, мне придётся выложить $31.50, и мой полемический запал не достаточно жарок для этого.
Но и из краткого содержания можно сделать выводы. Так, мне кажется, что в статье отсутствует таблица со списком персон (Джон Б. из семьи гомосексуалистов, Сара К. из семьи гомосексуалистов, Майкл К. из нормальной семьи, и т. д.) на которых проводилось исследование. А требуют от меня именно этого: доступа к БД, по которой я построил графики.
Могу также предположить, что публикация промежуточных данных связана с давлением, которому подвергался учёный на всём протяжении исследования. Для него этот вопрос буквально эквивалентен его личной свободе. Ну а для нас вопрос так не стоит. Могу заверить, что все, кому надо иметь доступ к сырым данным, этот доступ имеют. При этом все, у кого есть доступ к интернету, могут проделанную работу повторить. Список источников в заметке дан. Гугол в помощь.
Теперь о странном требовании "подтверждения или опровержения гипотезы". Наверное можно было взять аналогичную выборку по статьям, условно говоря, "про котят" и сравнить поведение той и другой темы. Оставляю это упражнение для самостоятельной работы читателей. Нам это, увы неинтересно. Нам было интересно построить графики, продемонстрировать их людям, которые понимают в графиках, указать на аномалию и предложить своё объяснение происходящего. Объяснение неверифицируемо и в этом смысле -- ненаучно. А графики вполне верифицируемы. Кто угодно может их воспроизвести.
Вот наша предыдущая публикация на эту тему, в которой приведен некоторый (неполный относительно данного исследования) конкретный список публикаций из некоторых региональных источников:
[censored]
> Чтобы познакомиться со статьёй целиком, мне придётся выложить $31.50
[censored] поможет, например.
> мне кажется, что в статье отсутствует таблица со списком персон (Джон Б. из семьи гомосексуалистов, Сара К. из семьи гомосексуалистов, Майкл К. из нормальной семьи, и т. д.)
Во-первых, социальные исследования проводятся с условием анонимности респондентов, поэтому „список персон“ — нонсенс по определению. Во-вторых, для обеспечения достоверности выборки её проводят с рандомизацией, поэтому „список персон“ — дважды нонсенс. Ну и в-третьих, печатный объём — сам по себе ценный ресурс, поэтому статьи предпочитают не раздувать.
Однако в статье присутствуют: а) чёткая формулировка критериев отбора, количественная разбивка по этим критериям и объяснение, почему были выбраны именно такие критерии; б) анализ выборок по общим критериям (пол-возраст-зарплата и т.п.), обосновывающий статистическую достоверность процесса отбора.
Подобного сочетания (чёткие критерии + дифференциальная разбивка + анализ на рандомизацию) — обычно достаточно для исключения претензий по „исходным данным“
> А требуют от меня именно этого: доступа к БД, по которой я построил графики
> все, у кого есть доступ к интернету, могут проделанную работу повторить. Список источников в заметке дан.
Проблема в том, что в заметке не даны именно однозначные критерии отбора.
Подсказываю — правильный критерий отбора выглядит так: „наличие в теле публикации слова/словосочетания ${TERM_OF_INTEREST_HERE}“.
> Объяснение неверифицируемо и в этом смысле — ненаучно.
Собственно, ключевая претензия — именно к факту ненаучности. Если „анализ“ обращается к научным методам, но при этом „ненаучен“ — получается не анализ, а манипуляция, а то и ложь.
Мой любимый пример в этом отношении — исследование,[censored] Хотя оно, конечно, чисто шуточное изначально.
> наша предыдущая публикация на эту тему, в которой приведен некоторый (неполный относительно данного исследования) конкретный список публикаций из некоторых региональных источников
А вот, кстати, забавно: в вашей предыдущей записи на эту тему наибольшее число публикаций приходится на ноябрь 2012 г. — а в обсуждаемом „анализе“, наоборот, в ноябре-2012 существенный провал. Более того, список публикаций за ноябрь-2012, перечисленных в предыдущей записи, едва не больше, чем число, приведённое в „анализе“ (тут могу на глаз ошибаться — сырые данные у вас есть, проверьте).
Отсюда сразу возникают сомнения в достоверности выборки, использованной в „анализе“. Конечно, претензии могут быть к агентству, собиравшему сведения — но тогда опять возвращаемся к вопросу о критериях.
> Вы можете найти в научной библиотеке научные журнал (издательства Elsevier, например) и посмотреть: прилагается ли к нему пробирки с химическими веществами, о которых статьи или со штаммами бактерий. А в случае, если не прилагаются, то это, конечно, повод объявить журнал ненаучным.
Нет, там будет или полноценное описание всей методики проведения эксперимента, или же ссылка на него. В т.ч. там подробно опишут какие химвещества или штаммы использовались, что с ними делали, какие получили результаты, сколько раз перепроверили повторив эксперимент, что было с контрольными группами и т.п.
Потом любой другой исследователь может:
1) Проверить, соответствует ли эксперимент принятым научным нормам.
2) Провести подобный эксперимент и убедиться в верности или неверности выводов.
В этой статье ничего подобного нет даже близко. Нет даже исходных данных. Просто пара экселевских табличек, нарисовать которые дело двух минут.
Это и так было очевидно, даже если заходить только на вотт. В 2012 году, начиная как раз с конца лета весь вотт буквально завалили темами про "ЮЮ". Более того: даже известно что за организация так старательно поднимает и пережевывает всю эту тему.
З.Ы. А почему "по-научному"? Если "по-научному", то где исходные данные как минимум?