МКОУ "СОШ с. Псыншоко"

МКОУ "СОШ с. Псыншоко"

Добро пожаловать на наш сайт!

Узнавание фигур методика: Методика «Узнай фигуры»

Методика «Узнай фигуры»

Эта методика — на узнавание. Данный вид памяти появляется и развивается у детей в онтогенезе одним из первых. От развитости данного вида существенно зависит становление других видов памяти, в том числе запоминания, сохранения и воспроизведения.

В методике детям предлагаются картинки в сопровождении следующей инструкции:

«Перед вами 5 картинок, расположенных рядами. Картинка слева отделена от остальных двойной вертикальной чертой и похожа на одну из четырех картинок, расположенных в ряд справа от нее. Необходимо как можно быстрее найти и указать на похожую картинку».

Сначала для пробы ребенку предлагают решить эту задачу на картинках, изображенных в ряду под номером 0, затем — после того, как экспериментатор убедился в том, что ребенок все понял правильно, предоставляют возможность решить эту задачу на картинках с номерами от 1 до 10.

Эксперимент проводится до тех пор, пока ребенок не решит все 10 задач, но не больше чем 1,5 мин даже в том случае, если ребенок к этому времени не справился со всеми задачами.

 

Оценка результатов

10 баллов — ребенок справился со всеми задачами меньше, чем за 45 сек.

8-9 баллов — ребенок справился со всеми задачами за время от 45 до 50 сек.

6-7 баллов — ребенок справился со всеми предложенными задачами в течение периода времени от 50 до 60 сек.

4-5 баллов — ребенок справился со всеми задачами за время от 60 до 70 сек.

2-3 балла — ребенок решил все задачи за время от 70 до 80 сек.

0-1 балл — ребенок решил все задачи, затратив на это более чем 80 сек.

Выводы об уровне развития

10 баллов — очень высокий.

8-9 баллов — высокий.

4-7 баллов — средний.

2-3 балла — низкий.

0-1 балл — очень низкий.

 


См. также

Тесты для детей Тесты способностей

 


   RSS     [email protected] ru 

Узнавание фигур, или Как проверить свою память

Узнавание фигур, или Как проверить свою память.

 

 

Цель. Исследование процессов  восприятия и узнавания у детей  и взрослых.

Описание. Экспериментатор  предъявляет испытуемому таблицу  с изображением 9 фигур (рис.1) и предлагает внима­тельно рассмотреть и запомнить эти фигуры в течение 10 секунд. После чего испытуемому показывают вторую таблицу, с большим количеством фигур (рис. 2). Испы­туемый должен обнаружить среди них фигуры из первой таблицы.

Первая инструкция. «Сейчас  я покажу вам изображения фигур. У вас есть 10 секунд, чтобы постараться  запомнить как можно большее  количество фигур».

Вторая инструкция. «На  следующем рисунке среди нарисован­ных фигур вы должны выбрать те, которые видели в пер­вом случае».

Обработка результатов. Экспериментатор  отмечает и подсчи­тывает количество правильно и неправильно узнанных фигур. Уровень узнавания (Е) подсчитывается по фор­муле:

E = M/9 + N,

где М — число правильно  узнанных фигур,

N — число неправильно узнанных  фигур.

Наиболее оптимальный  уровень узнавания равен единице, поэтому, чем ближе результаты испытуемого  к единице, тем луч­ше у него функционируют процессы узнавания наглядного материала. Аналогичным образом можно исследовать процес­сы узнавания другого материала — буквенного, цифрового, словесного.

 

Методика исследования кратковременной  памяти, или

Как выбрать нужную информацию.

Цель. Определение объема кратковременной зрительной па­мяти.

Описание. Испытуемый должен запомнить, а затем воспроиз­вести максимальное количество чисел из предъявляемой ему таблицы.

Инструкция. «Сейчас вам  будет предъявлена таблица с  числа­ми. Вы должны постараться за 20 секунд запомнить и по­том записать как можно большее количество чисел. Внимание, начали!»

Оценка. По количеству правильно  воспроизведенных чисел производится оценка кратковременной зрительной па­мяти. Максимальное количество информации, которое может храниться в кратковременной памяти, — 10 еди­ниц материала.

Средний уровень: 6 — 7 единиц.

 

 

 

3. Методика «Оперативная  память», или Как запомнить много за короткий срок.

Цель. Изучение оперативной  памяти (для взрослых испытуемых).

Инструкция. «Сейчас я  назову вам пять чисел. Ваша задача — постараться запомнить их, затем  в уме сложить первое число  со вторым, а полученную сумму записать; второе число сложить с третьим, сумму записать и четвертое с  пятым, снова записать сумму. Таким  образом, у вас должно быть получено и записано четыре суммы. Время для  вычислений — 15 секунд. После чего я  зачитываю следующий ряд чисел. Вопросы есть? Будьте вниматель­ны, числа зачитываются только один раз».

 

Числовые ряды.

а) 5, 2, 7, 1, 4 е) 4, 2, 3, 1, 5

б) 3, 5, 4, 2, 5 ж) 3, 1, 5, 2, 6

в) 7, 1, 4, 3, 2 з) 2, 3, 6, 1, 4

г) 2, 6, 2, 5, 3 и) 5, 2, 6, 3, 2

д) 4, 4, 6, 1, 7 к) 3, 1, 5, 2, 7

 

Ключ.

а) 7 9 8 5 е) 6 5 4 6

б) 8 9 6 7 ж) 4 6 7 8

в) 8 5 7 5 з) 5 9 7 5

г) 8 8 7 8 и) 7 8 9 5

д) 7 9 7 8 к) 4 6 7 9

 

Обработка данных. Подсчитывается число правильно найденных сумм. Максимальное их число – 40. Норма  взрослого человека – от 30 и выше.

 

 

Методика «Образная  память», или

Как отличить предмет от его  изображения.

Цель. Изучение кратковременной  образной памяти.

Описание. В качестве единицы  объема памяти принимается образ (изображение  предмета, геометрическая фигура, символ). Испытуемому предлагается за 20 секунд запомнить максимальное количество образов из предъявляемой таблицы (рис. 3). Затем в течение одной  минуты он должен воспроизвести запомнившееся (записать или нарисовать).

 

Инструкция. «Сейчас я  покажу вам таблицу с рисунками. Постарайтесь запомнить как можно  больше из нарисованного. После того как я уберу таблицу, запишите или зарисуйте все, что успели запомнить. Время предъявления таблицы — 20 секунд».

 

Оценка. Подсчитывается количество правильно воспроизведенных образов. В норме – это 6 и более правильных ответов.


Методика Домик, Гуткина: анализ результатов, выводы

В данной статье выясним, что собой представляют коррекционные методики, узнавание фигур, «Домик» Н. И. Гуткиной и иные нюансы, применяемые психологами для определения уровня развития ребенка.

Одной из самых актуальных и известных задач деятельности психологов в системе образования является диагностика подготовки ребят к школьному обучению. Сегодня существует колоссальное количество методик тестирования данного направления. Среди них указана «Экспертная программа, определяющая психологическую готовность малышей 6-7 лет к школьным занятиям» Гуткиной Н. И., которую считают теоретически наиболее обоснованной. Кстати, методологически она считается самым последовательным инструментом.

Достоинства методики

Безусловное достоинство данной методики заключается в принципе коррекционности, который в ней заложен. С помощью программы можно не только устанавливать отличительные черты развития и предсказывать успешность просвещения малыша, но и составлять коррекционно-совершенствующую адекватную систему. Долго работала над своей теорией Гуткина Н. И. Методика «Домик» — её лучшая работа, которая включена в данную программу.

Проект предназначен для проверки ребят 6-7 лет. С помощью него выясняется их психологическая готовность к школьным занятиям и контролируется динамика психического развития малышей в развивающих группах. В последнем случае проект применяют с 5,5 до 8 лет.

Вообще данная программа используется для изучения развития интеллектуальной, потребностно-аффективной, произвольной, речевой сфер.

Проект

Методики, из которых состоит проект, тестами не являются. Благодаря им можно качественно охарактеризовать готовность малыша к школьному обучению.

Диагностический проект состоит из семи методик, шесть из которых являются авторскими оригинальными разработками:

  • Способ определения доминирования игрового либо познавательного мотивов в потребностно-аффективной сфере малыша.
  • Тест школьной зрелости Керна-Йирасека (ориентационный).
  • Экспериментальная беседа, выявляющая «внутреннюю позицию ученика».
  • Технология «Да и нет» (умение работать по шаблону).
  • Методика «Домик» (тонкая моторика руки, произвольность внимания, сенсомоторная организация, умение ориентироваться на образец).
  • Приём «Сапожки» (исследование обучаемости).
  • Способ «Звуковые прятки» (фонемный слух).
  • Технология «Преемственность событий» (развитие речи, способности к обобщению, логическое мышление).

Чтобы провести эффективное обследование, кабинет оформляют в соответствии с предстоящими испытаниями: все необходимые материалы должны быть под рукой психолога-педагога. Из обстановки также исключаются яркие предметы и игрушки, которые могут отвлекать ребенка.

На контрольном собеседовании могут присутствовать родители, но их нахождение около малыша во время проведения технологий «Определение доминирования мотивов» и «Домик» нежелательно.

Цель проекта

Благодаря этому проекту можно:

  1. Выяснить мотивационную готовность ребенка к школьным занятиям, а также особенности его обучаемости.
  2. Определить развитие дошкольника в произвольной, мотивационной, речевой, интеллектуальной сферах.
  3. Применять долгие годы один и тот же побудительный источник, не нуждающийся в коррекции.
  4. Найти нюансы, препятствующие развитию малышей с возраста 5,5 лет. Начать работу с ними по развивающей эксклюзивной методике «Группы развития», которую Н. И. Гуткина описала в своей книге «Психологическая подготовленность к школе».

Технология «Домик»

Что собой представляет методика Н. И. Гуткиной «Домик»? Ребёнку предлагается срисовать картинку, изображающую домик, отдельные элементы которого выглядят как детали прописных букв. Данную технологию можно использовать для определения готовности детей 5-10 лет к школьным занятиям.

Целью испытания является определение способности дошкольника копировать сложную модель.

Благодаря заданию выявляется умение ребёнка ориентироваться на модель, точно её воспроизводить. Также можно определять особенности развития зрительного восприятия, непринуждённого внимания, тонкой моторики и сенсомоторной координации руки дошкольника.

Материалами и оборудованием здесь выступают образец рисунка, простой карандаш и лист бумаги.

Процедура обследования

Каким образом применяется на практике методика Н. И. Гуткиной «Домик»? Перед выполнением упражнения малышу сообщают следующую инструкцию: «Перед тобой лежат карандаш и лист бумаги. Я прошу тебя изобразить на листе такой же рисунок, как на этом образце (ребёнку передаётся картинка с нарисованным домиком). Не торопись, будь внимателен и постарайся, чтобы твой рисунок не отличался от образца. Если что-то нарисуешь не так, стирать не нужно ни пальцем, ни резинкой (необходимо проследить, чтобы у малыша резинки не было). Просто поверх неверных деталей либо рядом можно нарисовать правильно. Тебе задание понятно? Тогда начинай его выполнять».

Ход задания

Согласитесь, великолепный специалист Гуткина Н. И. Методика «Домик» творит чудеса! Итак, что же нужно зафиксировать по ходу задания? Психолог должен выяснить, левой или правой рукой рисует малыш. Специалист обязан проследить, как испытуемый работает: часто ли смотрит на рисунок-образец, проводит ли над ним воздушные линии, повторяющие очертания картинки. А может быть он рисует по памяти, мельком взглянув на образец?

Также педагог должен обратить внимание на следующие нюансы: медленно или быстро малыш проводит линии, отвлекается или трудится упорно, сверяет ли после завершения работы свой рисунок с моделью.

Когда ребенок сообщает о завершении упражнения, его нужно попросить проверить самостоятельно своё творение. Если он обнаружит погрешности в нём, то может их подправить, но экспериментатор обязан эти действия зафиксировать.

Обработка результатов

Итак, мы выяснили, что собой представляет методика «Домик». Н. И. Гуткина анализ результатов предлагает проводить следующим образом: обработку материалов необходимо выполнять, суммируя баллы, которые начисляются за погрешности. А погрешности бывают такими:

  1. Увеличение отдельных элементов изображения более, чем в два раза. Размер всего рисунка в этом случае соответствует образцу (3 балла за каждое укрупнённое звено).
  2. Отсутствие какого-либо элемента картинки (4 балла). На изображении могут отсутствовать дым, забор (две половины либо одна), крыша, труба, штриховка на крыше, линия, обозначающая основание домика, окно.
  3. Неверно выполненный элемент картинки (3 балла). С погрешностями могут быть нарисованы колечки дыма, штриховка на крыше, забор, труба, окно. Кстати, если неправильно изображены доски изгороди, то начисляется 2 балла не за каждую неверно нарисованную доску, а за всю левую или правую часть изгороди полностью. Это же правило применяется и к колечкам дыма, появляющегося из трубы, и к штриховке дома. Далее левая и правая части забора рассматриваются отдельно: так, если неверно срисована правая часть, а у левой ошибки отсутствуют (или наоборот), то малыш получает 4 балла. Если часть левой (правой) стороны изгороди срисована правильно, а часть с погрешностями, тогда искажённая сторона оценивается одним баллом. Также квалифицируется и штриховка на крыше, и колечки дыма. Если лишь некоторые элементы колечек дыма скопированы верно, малыш получает один балл, если отрисована штриховка на крыше с погрешностями, ставится один балл. Неверно изображённое число деталей в элементах рисунка за ошибку не считается. Не имеет значения, сколько будет линий в штриховке крыши, колечек дыма или дощечек в заборе.
  4. Неверное размещение компонентов в пространстве картинки (1 балл). К погрешностям этого вида относится размещение забора выше линии основания домика (домик как бы завис в воздухе) или ниже её (изгородь должна находиться на общей с основанием домика линии). Ошибкой считается значительное смещение окна вправо или влево от центра. Если дым отклоняется более, чем на тридцать градусов от горизонтальной линии – это тоже погрешность. Оплошностью считается также, если размер основания крыши соответствует фундаменту домика, а не превышает его (крыша на образце над домиком нависает).
  5. Что же далее рекомендует выполнять Гуткина Н. И.? Методика «Домик» является сложной технологией. Ошибкой считается отклонение прямых линий от заданного направления более, чем на тридцать градусов (1 балл): перекос горизонтальных и вертикальных линий, из которых состоят крыша и домик. Малышу запрещено изменять угол наклона боковых линий крыши, «заваливать» (более чем на тридцать градусов) палочки забора, отклонять от горизонтальной прямой линию основания изгороди (более чем на тридцать градусов).
  6. Просветы между линиями там, где они должны соединяться (1 балл за каждый просвет). Если линии штриховки на крыше не соприкасаются с линией крыши, 1 балл ставится за всю штриховку, а не за каждую её неверную линию.
  7. Наложение линий друг на друга (1 балл за каждое наложение). Если линии штриховки крыши выходят за её контуры, одним баллом оценивается вся штриховка, а не каждая её неверная линия.

За хорошее выполнение упражнения начисляется 0 баллов. Фактически, чем хуже малыш отрисовал рисунок, тем выше суммарная оценка его работы.

Согласитесь, довольно-таки интересная методика «Домик» (Н. И. Гуткина). Интерпретация результатов данного эксперимента всегда проводится с учётом возраста будущего школьника.

Известно, что дети пяти лет очень редко получают ноль баллов из-за неполной зрелости участков мозга, контролирующих сенсомоторную организацию. А что можно сказать о работе малыша десяти лет, которая оценена на один балл и выше? Такой результат указывает на неблагополучное развитие одной или нескольких проверяемых методикой психологических сфер.

Анализ результатов

Как предлагает анализировать выполненное упражнение Гуткина Н. И.? Методика «Домик» — очень сложная система. Специалист должен делать акцент на характере линий: «лохматые» или слишком жирные линии могут указывать, согласно имеющимся по данному вопросу источникам, на состояние тревожности дошкольника. Но такой вывод ни под каким видом нельзя делать, опираясь лишь на один рисунок. Появившееся подозрение нужно проверить особыми экспериментальными методами.

Аналог

Итак, с чем сопоставляется методика «Домик» (Н. И. Гуткина)? Выводы, которые она позволяет сделать, помогают оценить готовность ребенка к школьным нагрузкам. Многие рассматривают данную технологию как аналог II и III упражнений теста Керна-Йирасека, а именно: копирование письменных букв (II урок) и копирование группы точек (III урок).

Сравнивая итоги по указанным схемам, эксперты пришли к выводу, что технология «Домик» раскрывает те же психологические качества в развитии малыша, что и II и III уроки теста Керна-Йирасека.

Фактически мы выяснили, что собой представляет методика «Домик» (Н. И. Гуткина). Обработка выполненного задания занимает немного времени. Результаты обсчитываются в баллах для того, чтобы отследить изменения в сенсомоторной эволюции одного и того же ребенка в разном возрасте.

Кстати, экспериментировать подобным образом с близорукими малышами запрещено.

Картотека методик диагностики для разных возрастных периодов

Картотека методик  диагностики для разных возрастных периодов

 

ПСИХОЛОГИЧЕСКИЕ ТЕСТЫ ДЛЯ ДИАГНОСТИКИ ПСИХОЛОГИЧЕСКОЙ  ГОТОВНОСТИ К ШКОЛЕ

 

Тест Керна-Йерасека – методика для диагностики уровня готовности к школьному обучению. Существенным преимуществом теста является его разносторонность (использование словесных, графических способов исследования, ориентация на широкий социальный круг факторов, влияющих на ребенка).

Тест «Способность к  обучению в школе» Г. Вицлака (1972) предназначен для диагностики психологической готовности к школе детей 5-7 лет.

Методика Н.И. Гуткиной «Домик» предназначена для диагностики сформированности мелкой моторики у детей.

Методики А.Л. Венгера «Дорисуй мышкам хвосты» и «Нарисуй ручки для зонтиков» предназначены для диагностики сформированности мелкой моторики у детей.

Методика «Езда по дорожке» предназначена для выявления  уровня развития психомоторики ребенка.

Методика    «Образец    и    правило» (разработана    А.Л.Венгером) направлена на выявление умения руководствоваться системой условия задачи, преодолевая отвлекающее влияние посторонних факторов. Результаты ее выполнения также отражают уровень развития наглядно-образного мышления.

Методика «Графический  диктант» Д.Б.Эльконина направлена на выявление умения внимательно слушать и точно выполнять указания взрослого, правильно воспроизводить на листе бумаги заданное направление линий, самостоятельно действовать по заданию взрослого.

Методика «Вежливость» предназначена для диагностики  произвольного внимания и  памяти при определении готовности детей  к школе.

Методика «Лабиринт» предназначена  для выявления уровня сформированности наглядно-схематического мышления (умения пользоваться схемами, условными изображениями  при ориентировке в ситуациях).

Методика «Объяснение сюжетных картин» предназначена для диагностики  мышления.

Методика «Последовательность событий» предназначена для диагностики  мышления.

Методика интерпретации  пословиц предложенный Б.В. Зейгарник  предназначена для диагностики  мышления.

Методика «Найди звук» служит для изучения развития речевой  сферы (проверка фонематического слуха).

 

ПСИХОЛОГИЧЕСКИЕ ТЕСТЫ ДЛЯ ДИАГНОСТИКИ ПОЗНАВАТЕЛЬНОЙ СФЕРЫ

 

Методика «Узнавание фигур» предназначена для диагностики  особенностей восприятия.

Методика определения  кратковременной памяти.

Методика «Оперативная  память».

Методика «Образная память».

Методика А.Р.Лурии «Заучивание 10 слов» предназначена для определения состояния памяти, внимания, утомляемости.

Методика «Воспроизведение  рассказа» предназначена для определения  уровня смысловой памяти, ее объема, а также способности к запоминанию  текстов.

Методика «Опосредствованное  запоминание» (предложена Л.С.Выготским и А.Р.Лурия, разработана А.Н.Леонтьевым) предназначена для определения особенностей опосредствованного запоминания, мышления.

Методика «Пиктограмма» предназначена для исследования особенностей опосредствованного запоминания  и его продуктивности, а также  характера мыслительной деятельности, уровня формирования понятийного мышления.

Методика «Корректурная проба» (тест Бурдона) предназначена для  изучения степени концентрации и  устойчивости внимания.

Методика «Таблицы Шульте» предназначена для определения устойчивости внимания и динамики работоспособности.

Методика Горбова «Красно-черная таблица» призвана оценить переключение и распределение внимания.

Методика изучения уровня внимания (предложена П.Я.Гальпериным  и С.Л.Кабылицкой) направлена на изучения уровня внимания и самоконтроля школьников 3-5 классов.

Методика «Интеллектуальная лабильность» предназначена для  диагностики переключения внимания.

Методика «Толкование пословиц» предназначения для исследования уровня  мышления.

Методика «Простые аналогии» позволяет выявить характер логических связей и отношений между понятиями  у детей старше 10 лет.

Методика «Сложные аналогии» предназначена для диагностики  мышления.

Методика «Сравнение понятий» направлена на исследование операций сравнения, анализа и синтеза  в детском и подростковом возрасте.

Методика «Выделение существенных признаков» позволяет выявить  особенности мышления.

 

ПСИХОЛОГИЧЕСКИЕ ТЕСТЫ ДЛЯ ДИАГНОСТИКИ ИНТЕЛЛЕКТА И УМСТВЕННОГО РАЗВИТИЯ

 

Тест Д. Векслера предназначен для исследования умственного развития. В настоящее время имеются  три формы шкал Векслера, предназначенные  для разных возрастов. Считается, что  тест может быть использован для  диагностики готовности к школе  и оценки причин неуспеваемости. В  нашей стране тест Век­слера был адаптирован А. Ю. Панасюком (1973) и позднее опубликован в обновленной редакции в Санкт-Петербурге (Ю.И. Филимоненко, В. И. Тимофеев,  1992).

 

 

ПСИХОЛОГИЧЕСКИЕ ТЕСТЫ ДЛЯ ДИАГНОСТИКИ ЭМОЦИОНАЛЬНЫХ  СОСТОЯНИЙ

 

Рисуночный тест Дж.Бука «Дом. Дерево.Человек» позволяет выявить степень выраженности незащищенности, тревожности, недоверия к себе, чувства неполноценности, враждебности, конфликтности, трудностей в общении, депрессивности.

Тест «Сказка». Данная методика представляет собой разновидность  проективного теста. Процедура исследования заключается в следующем: ребенку  читают сказку, а он должен придумать  ее продолжение. В зависимости от ответов ребенка можно сделать  вывод об особенностях эмоциональных  переживаний (прежде всего, тревожность, агрессивность) и источниках, которые  вызывают данные переживания.

САН – методика, позволяющая  уточнить особенности самочувствия, активности, настроения.

Методика «Кактус» М.А.Панфиловой предназначена для определения  состояния эмоциональной сферы  дошкольника, наличие агрессивности, ее направленность, интенсивность.

 

   

ПСИХОЛОГИЧЕСКИЕ ТЕСТЫ ДЛЯ ДИАГНОСТИКИ МЕЖЛИЧНОСТНЫХ  ОТНОШЕНИЙ

 

Социометрическая игра «Секрет» (Т.А. Репина) выявляет систему существующих между детьми избирательных предпочтений.

Методика «Капитан корабля» предназначена для диагностики  статуса дошкольников и младших  школьников в коллективе сверстников.

Методика «Мозаика» — естественный эксперимент, в котором изучаются  особенности межличностных отношений  между детьми в группе сверстников, в том числе:  степень эмоциональной  вовлеченности ребенка в действия сверстника; характер участия в действиях  сверстника, характер и степень выраженности сопереживания сверстнику, характер и степень проявления просоциальных форм поведения в ситуации, когда ребенок стоит перед выбором действовать «в пользу другого» или «в свою пользу».

 

Методика Рене Жиля позволяет исследовать социальную приспособленность ребенка, сферу его межличностных отношений и ее особенности, восприятие ребенком семейных отношений.

Методика изучения психологического климата в коллективе А.Н.Лутошкина.

Рисуночный тест «Рисунок  семьи» (Т. Г. Хоментаускас) позволяет выявить особенности внутрисемейного общения.

 

ПСИХОЛОГИЧЕСКИЕ ТЕСТЫ ДЛЯ  ДИАГНОСТИКИ ОСОБЕННОСТЕЙ ЛИЧНОСТИ

 

Опросник Басса – Дарки – предназначен для диагностики вида и уровня агрессивности, в том числе: 1. Физическая агрессия — использование физической силы против другого лица. 2. Косвенная — агрессия, окольным путем направленная на другое лицо или ни на кого не направленная. 3. Раздражение — готовность к проявлению негативных чувств при малейшем возбуждении (вспыльчивость, грубость). 4. Негативизм — оппозиционная манера в поведении от пассивного сопротивления до активной борьбы против установившихся обычаев и законов. 5. Обида — зависть и ненависть к окружающим за действительные и вымышленные действия. 6. Подозрительность — в диапазоне от недоверия и осторожности по отношению к людям до убеждения в том, что другие люди планируют и приносят вред. 7. Вербальная агрессия — выражение негативных чувств как через форму (крик, визг), так и через содержание словесных ответов (проклятия, угрозы). 8. Чувство вины — выражает возможное убеждение субъекта, что он является плохим человеком, что поступает зло, а также ощущаемые им угрызения совести.

Тест Кейрси для диагностики коммуникативных особенностей личности.

Методика исследования эмпатических особенностей личности В.В.Бойко.

Методика определения  самооценки дошкольника (В.Г.Щур).

 

ПСИХОЛОГИЧЕСКИЕ ТЕСТЫ В ПСИХОСОМАТИКЕ

 

Проективный тест «Образ  себя» предназначен для исследования особенностей восприятия испытуемым своих  физических параметров и образа себя.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Картотека методик диагностики для разных возрастных периодов

Возрастной период

Методика

Исследуемая функция

ДОШКОЛЬНЫЙ ВОЗРАСТ

2-3 года

Наблюдение, естественный эксперимент. Методики психолого-педагогической диагностики, разработанные Е.А. Стребелевой (диагностический ящик).

Диагностика уровня психофизического развития ребёнка

4-5 лет

Комплекс методик разработанный  в лаб. Л.А. Венгера.

Направлен на выявление умственного развития, ребенка

4-5 лет

Тест тревожности. (Р. Тэммл, М. Дорки, В. Амен).

Выявление уровня тревожности  и страхов у детей

От 4-5 лет

Рисунок семьи

Исследование межличностных  отношений ребёнка с родителями. Материал: лист белой бумаги 15*20 или 21*29 см, ручка, карандаш, ластик. Время  проведениия: 15-30 мин.

От 4-5 лет

«Лесенка» С.Г. Якобсон,  В.Г. Щур

Самооценка и уровень  притязаний

5-7 лет

Методика диагностики  мотивации учения у детей (Т. А. Нежнова, модификация А.М. Прихожан)

Мотивация учения

5-7 лет.

Тест «Способность к  обучению в школе» Г.Вицлака (1972)

предназначен для диагностики психологической готовности к школе детей

5-6 лет

Тест Керна-Йерасека

методика для диагностики  уровня готовности к школьному обучению. Существенным преимуществом теста  является его разносторонность (использование  словесных, графических способов исследования, ориентация на широкий социальный круг факторов, влияющих на ребенка).

5-7 лет

Методика Н.И. Гуткиной «Домик»

предназначена для диагностики сформированности мелкой моторики у детей.

3-5 лет

Методики А.Л. Венгера «Дорисуй мышкам хвосты» и «Нарисуй ручки для зонтиков»

предназначены для диагностики  сформированности мелкой моторики у  детей.

5-7 лет

Методика «Езда по дорожке»

предназначена для выявления уровня развития психомоторики ребенка.

5-7 лет

Методика «Графический  диктант» Д.Б.Эльконина

направлена на выявление умения внимательно слушать и точно выполнять указания взрослого, правильно воспроизводить на листе бумаги заданное направление линий, самостоятельно действовать по заданию

5-7 лет

Методика «Образец и  правило» (разработана А.Л.Венгером)

направлена на выявление умения руководствоваться системой условия задачи, преодолевая отвлекающее влияние посторонних факторов. Результаты ее выполнения также отражают уровень развития наглядно-образного мышления.

С 3-х лет

Кубики Каоса

Направленность методики Наглядно-действенное мышление, невербальный интеллект, пространственное воображение 
Стимульный материал 9 кубиков, 10 карточек 
Время проведения 10-15 мин.  
Обработка результатов Количественный и качественный анализ

от 3,5 до 7 лет

Тест «Нарисуй человека» 
Разработчик НПЦ «Психодиагностика» И.Г. Демидова, В.И. Чирков и др, адаптация теста Гудинар-Харриса

Направленность методики Диагностика развития перцепции, сенсомоторной  координации, уровня психического развития детей.  
Стимульный материал Лист бумаги, карандаш 
Время проведения Не ограничено  
Обработка результатов Количественный и качественный анализ

5-7 лет

Методика «Вежливость»

предназначена для диагностики произвольного внимания и памяти при определении готовности детей к школе.

5-7 лет

Методика интерпретации  пословиц предложенный Б.В. Зейгарник

предназначена для диагностики мышления.

5-7 лет

Картиночно-словарный тест

Направленность методики Уровень готовности ребенка к  школе — вербальные способности ребенка  
Стимульный материал Карточки с рисунками (25)  
Время проведения 5-10 мин.  
Обработка результатов Ключ  
Разработчик НПЦ «Психодиагностика», В.И. Чирков, О.Л. Разумовская, модификация теста » Phonic Key Card

5-7 лет

Скрининговый тест школьной зрелости 
Разработчик НПЦ «Психодиагностика», В.И. Чирков, О.Л. Разумовская, модификация теста Йерасека-Керна

Направленность методики Уровень готовности ребенка к  школе — тонкая моторика руки, зрительно-двигательная координация, общий уровень развития мышления  
Стимульный материал З невербальных задания и опросник (20)  
Время проведения Не ограничено  
Обработка результатов Количественный и качественный анализ

5-7 лет

Тест диагностики информированности  ребенка о социальном окружении 
Разработчик НПЦ «Психодиагностика», В.И. Чирков, О.Л. Разумовская, И.В. Соколова, С.А. Матвеева, модификация теста Матешека и Вагнеровой-Стрнадовой

Направленность методики Уровень готовности ребенка к  школе — информированность, общая осведомленность  
Стимульный материал Опросник (43)  
Время проведения 10-15 мин.  
Обработка результатов Ключ

 

 


Распознавание форм — обзор

2.10 Скелет плоской формы

Что такое скелет изображения и почему он так важен? Математически скелет плоского контура представляет собой множество центров двукасательных окружностей, лежащих внутри контура [67]; плоское связное множество однозначно определяется своим скелетом и выпуклой оболочкой [67]. Скелет дает нам стабильное, уникальное и инвариантное представление формы, которое также имеет богатую локальную поддержку [62, 204]. Скелет точно описывает большинство геометрических и топологических особенностей изображения.Таким образом, скелет является эффективным дескриптором формы [215, 170]. Это делает скелет бесценным, например, при распознавании формы, реконструкции изображения, высокоуровневом компьютерном зрении [122, 87, 101, 166, 172] и операциях морфинга [186].

Как были вычислены указанные скелеты? Первый в истории алгоритм — алгоритм травяного пожара — уже был «естественен»: поджечь контур, дать огню распространиться и погасить точки, где сталкиваются наступающие фронты огня; это гашение представляет собой каркас исходного контура [54, 55, 67]. На данный момент основные варианты скелетизации, обобщенные в [204], включают (i) симуляцию травяного пожара (хорошая идея для массивно-параллельных процессоров), (ii) аналитическое построение средней оси (слишком сложно). , топологическое прореживание (не точное и нелогичное, как указано в [204]) и геометрическое преобразование [216] и (iii) построение скелета с помощью карты расстояний или преобразования расстояний [237].

Более десяти лет назад были опубликованы три физических и химических алгоритма построения скелета; это алгоритм реакции-диффузии [2], алгоритм на основе возбудимой химической среды (на основе реакции Белоусова-Жаботинского) [229] и алгоритм электростатического поля [1].

Подход электростатического поля к построению скелета основан на следующих фактах: (i) распределение электростатического поля на поверхности проводящего объекта пропорционально локальной кривизне объекта и (ii) силовые линии нормальны к границе объекта (а также делят пополам углы в углах) [1]. Следовательно, линии электростатического поля представляют собой сегменты скелета. Алгоритмическая реализация метода интересна, возможно, не слишком эффективна; однако его потенциал заключается в реальном изготовлении каркасного электростатического компьютера (мы не знаем, было ли это когда-либо сделано).Классический алгоритм преобразования травы в огонь и нетрадиционный электростатический алгоритм говорят нам о том, что участки данного пространства, соответствующие скелету, меняют свои физические характеристики; однако они не дают очевидного способа обнаружить эти сайты.

Подход с возбудимой химической средой очень интуитивно понятен и ясен. На светочувствительную среду Белоусова–Жаботинского проецируется контур для возбуждения среды. Волны возбуждения, узнаваемые по цвету реагентов, проходят как внутри, так и снаружи этого информационного контура.Места столкновения волн представляют собой точки скелета. К сожалению, как и в алгоритме травяного пожара, нет возможности «естественно» обнаружить места столкновения волн в среде Белоусова–Жаботинского.

Реакционно-диффузионный подход устраняет проблему обнаружения вычисленного скелета. Предполагается, что реагенты диффундируют из данных участков и взаимодействуют с образованием скелета [2, 4, 7].

Усовершенствованный метод распознавания трехмерных форм, основанный на панорамном виде

Распознавание трехмерных (3D) форм является важным вопросом в системах компьютерного зрения из-за отсутствия превосходных представлений форм.С развитием датчиков глубины 2,5D распознавание формы становится все более важным в практических приложениях. Было предложено множество методов для предварительной обработки 3D-форм, чтобы получить доступные входные данные. Распространенный подход использует сверточные нейронные сети (CNN), которые стали мощным инструментом для решения многих задач в области компьютерного зрения. DeepPano, вариант CNN, преобразует каждую 3D-форму в панорамный вид и демонстрирует отличную производительность. Стоит обратить внимание на то, что при обработке DeepPano существуют как серьезные потери информации, так и избыточность, что ограничивает дальнейшее улучшение ее производительности. В этой работе мы предлагаем более эффективный метод предварительной обработки 3D-форм, также основанный на панорамном виде, аналогичный DeepPano. Мы представляем новый метод расширения обучающей выборки и оптимизации архитектуры сети. Экспериментальные результаты показывают, что наш подход превосходит DeepPano и может решать более сложные задачи распознавания трехмерных форм с большим разнообразием целевой ориентации.

1. Введение

Трехмерные (3D) формы содержат информацию об объектах реального мира, и ученые в области компьютерного зрения сосредоточились на том, как в полной мере использовать трехмерные формы для решения таких задач, как классификация объектов и распознавание объектов.Сверточные нейронные сети (CNN) широко применяются для 2D-изображений и демонстрируют блестящую производительность, поэтому вполне естественно использовать CNN для распознавания 3D-объектов. Одна из наиболее важных проблем при обобщении CNN из 2D-изображений в 3D-изображения заключается в том, что, хотя 2D-изображения имеют регулярную структуру данных, 3D-формы, такие как облака точек или сетки, слишком нерегулярны, чтобы служить прямым входом для CNN. Отсюда ясно, что эффективность распознавания объектов сильно зависит от того, можно ли получить хорошее представление для трехмерных форм.Согласно теоретической основе, предыдущие работы по распознаванию 3D-объектов можно условно разделить на две категории: методы, основанные на ручных функциях, и методы, основанные на глубоком обучении [1]. Основное различие между этими двумя категориями заключается в том, как выбирать функции трехмерных фигур: первая зависит от искусственного проектирования функций, а вторая может автоматически изучать более абстрактные функции с помощью многослойных нейронных сетей. Разработанные вручную методы в основном используют такие функции, как гистограмма ориентированного градиента (HOG), масштабно-инвариантное преобразование признаков (SIFT), сигнатура гистограмм ориентаций (SHOT), гистограмма признаков точки обзора (VFH) и гистограмма точечных признаков (PFH). которые применяются к различным алгоритмам машинного обучения, например, к случайным лесам [2], машинам опорных векторов (SVM) [3] или машинам восприятия [4]. Таким образом, процесс распознавания сводится к следующим этапам: извлечение признаков, кодирование признаков, комбинация признаков и распознавание объектов. Хотя этот метод был популярен и добился успеха в 3D-распознавании, его функции невелики. Кроме того, разработка соответствующей функции обычно требует знаний и опыта в предметной области. Даже в этом случае требуется много исследований и времени, и по-прежнему трудно достичь удовлетворительного уровня признания. Развитие глубокого обучения сильно изменило состояние распознавания изображений.Методы, основанные на глубоком обучении, не только сопоставляют функции с выводом, но также извлекают сами функции и часто приводят к гораздо более высокой производительности, чем можно получить с помощью функций, разработанных вручную. Глубокое обучение может заставить алгоритм распознавания быстро адаптироваться к переменным задачам с меньшим вмешательством человека.

Предыдущую работу по распознаванию 3D на основе глубокого обучения можно в целом разделить на два стиля, и разные типы методов имеют разные преимущества и недостатки. Объемные CNN[5–7] преобразуют 3D-формы в вокселизированные формы, используя подход, аналогичный подходу к представлению 2D-данных. Однако объемное представление зависит от пределов разрешения. Чтобы получить надлежащее разрешение, сравнимое с 2D-изображениями, количество вокселей велико, а данные имеют тенденцию быть более разреженными. Это создает проблемы с объемом памяти и производительностью алгоритмов. Ли и др. [8] и Wang et al. [9] предложили специальный метод для облегчения этой проблемы; однако принципиально проблему это не решает.Многоракурсные CNN отображают 3D-форму в группу 2D-изображений, проецируя 3D-модель на плоскость с разных точек зрения [6, 10]. Таким образом, объекты 3D-распознавания могут быть преобразованы в большие задачи 2D-распознавания, которые были решены с превосходной производительностью. С доступной сетевой архитектурой этот метод достиг доминирующей производительности в задачах классификации и поиска форм. Однако, когда этот метод преобразует 3D-формы в 2D-изображения, часть пространственной информации неизбежно теряется, что приводит к снижению пространственной дискриминации. Кроме того, этот метод трудно распространить на другие 3D-задачи, такие как понимание сцены и завершение формы. Для основанных на признаках CNN основная идея заключается в том, что 3D-данные преобразуются в вектор этим методом, а традиционные признаки формы действуют как входные данные для сетей [11, 12]. Использование традиционных функций дополнительно подразумевает, что этот метод не использует в полной мере способность глубоких нейронных сетей автоматически изучать функции.

В этой работе мы предлагаем новый метод машинного обучения для распознавания 3D-форм, связанный с предыдущим методом DeepPano [13], который преобразует 3D-фигуры в 2D-панорамные виды.В отличие от многоракурсных сверточных нейронных сетей[10], DeepPano визуализирует трехмерную форму только в одном изображении. Левая и правая стороны визуализированного изображения разделены; однако они обычно связаны в исходной трехмерной форме. Следовательно, в процессе преобразования происходит потеря информации. Чтобы избежать каких-либо потерь, DeepPano добавляет к одной стороне карты дополнительную заполненную область, клонированную с другой стороны. Это означает, что некоторые пиксели повторяются, и включается избыточная информация. Карта сверточных объектов, извлеченная из панорамных видов, смещается по мере вращения трехмерной формы, поэтому для получения инвариантности к вращению вводится еще один творческий метод DeepPano, слой максимального объединения строк (RWMP).В отличие от типичного слоя пула в CNN, RWMP преобразует длинную строку элементов в карте объектов только в один элемент, что вызывает дополнительные большие потери информации. Мы предлагаем новую технику, позволяющую избежать потери информации и избыточности, возникающих в DeepPano. В нашем подходе для панорамных видов, когда трехмерная фигура вращается, пиксели соответствующего двухмерного визуализированного изображения перемещаются параллельно. Когда получают визуализированные изображения, мы не обрабатываем их напрямую как входные данные, а вместо этого преобразуем пиксели в каждом изображении с определенными или даже случайными размерами шага для создания серии копий каждого изображения; расширенный обучающий набор включал серию вращательных копий исходной 3D-формы. CNN, обученные расширенным обучающим набором, могут получить превосходную вращательную инвариантность. Мы назвали этот метод ротационным расширением.

Вкратце, ключевым вкладом этой статьи является метод расширения вращения, новый метод обработки обучающих наборов для распознавания трехмерных форм. Помимо достижения более высокой точности на исходных наборах тестов, мы также разрабатываем сравнительные испытания для изучения эффективности распознавания на более сложных наборах тестов. Наши результаты показывают, что расширение вращения является более эффективным методом и может сохранить больше исходной информации с большей точностью по сравнению с DeepPano.

Этот документ имеет следующую структуру. В разделе 2 рассматривается связанная с этим работа по применению глубокого обучения для распознавания трехмерных объектов. Раздел 3 описывает детали расширения поворота панорамного вида. Раздел 4 показывает экспериментальные результаты. Наконец, в разделе 5 сделаны некоторые выводы о нашей работе и определены направления будущих исследований для улучшения предложенного метода.

2. Связанные работы

Глубокое обучение достигло выдающихся результатов в распознавании класса 2D-объектов.Существует много репрезентативных сетевых архитектур, и сверточные нейронные сети являются одними из наиболее важных подходов. Крижевский и др. применить модель глубокого обучения, которая была разработана на основе CNN в ImageNet Large Scale Visual Recognition Challenge (ILSVRC) [14] 2012 и дала отличные результаты по сравнению с предыдущей работой.

Из-за отличной производительности CNN в задачах, связанных с 2D-изображениями, естественно и разумно ввести их для аналогичных приложений на 2.5D и 3D данные. Данные RGB-D (R: красный, G: зеленый, B: синий, D: глубина) обычно представляют собой данные 2.5D. Методы, основанные на CNN, просто добавляют глубину в качестве четвертого канала ввода к предыдущему изображению RGB, которое имеет три канала ввода. Этот подход по сути эквивалентен старому методу, основанному на данных RGB, и, следовательно, не полностью использует геометрическую информацию, предоставляемую глубиной.

Примечательно, что 3D-данные имеют гораздо более сложную структуру, чем 2D-данные в более регулярном формате.Это затрудняет прямое применение методов CNN для распознавания трехмерных форм. Входные данные CNN обычно имеют тензорную форму. Чтобы использовать CNN для распознавания трехмерных форм, первая проблема, которую необходимо решить, заключается в том, как преобразовать трехмерные фигуры в доступный формат, который может выступать в качестве входных данных для CNN. Различные методы представления трехмерных форм привели к ряду решений.

Методы на основе вокселизации: вокселизация основана на объемном представлении, которое играет важную роль в сообществе компьютерного зрения с 1980-х годов.Он обеспечивает простое и надежное описание и может рассматриваться как расширение пикселей в 2D-изображениях; 3D-модели имеют регулярную структуру данных, что облегчает цифровую обработку. С успешным применением CNN в области 2D-изображений многие исследователи начали применять 3D CNN к объемным формам. Матурана и др. [5] обучили трехмерную архитектуру обучения под наблюдением в режиме реального времени с объемными трехмерными формами. Ву и др. [7] преобразовали каждую трехмерную форму в трехмерную сетку, а объемные модели были применены для распознавания трехмерных форм с использованием сверточной сети глубокого доверия.В [15] признаки из вероятностного пространства были изучены за счет использования достижений в области объемных сверточных сетей и генеративных состязательных сетей, которые могут широко применяться для трехмерного распознавания. В [8] трехмерный сверточный автокодер применялся для распознавания трехмерных форм. В то время как объемные формы не рассматривались напрямую в качестве входных данных для трехмерных CNN в [16], многослойные плотные представления объемных форм были извлечены с использованием генератора признаков, состоящего из сверточной нейронной сети и рекуррентной нейронной сети (RNN), и были переданы в классификатор. распознавать трехмерные фигуры.

Методы, основанные на проекции, которые отличаются от прямых трехмерных представлений, проецируют трехмерные формы в различные двухмерные пространства. В [10] многоракурсная CNN применялась для извлечения визуальных признаков из проецируемых изображений из разных видов, а технология максимального объединения применялась для объединения информации из нескольких представлений трехмерной формы в один дескриптор формы и достигала более высокой производительности распознавания, чем одиночный. архитектуры распознавания изображений. Точно так же в [17] была предложена технология кодирования, которая строит компактный дескриптор на основе серии 2D-видов в формате рендеринга глубины из 3D-объектов.Дескриптор светового поля (LFD) [18] использовался для извлечения признаков из световых полей, визуализируемых с камер, расположенных на сфере, с целью повышения устойчивости к вращению. Пападакис и др. [19] использовали набор панорамных видов 3D-формы для создания дескриптора 3D-формы с именем PANORAMA, который описывает положение и ориентацию фигуры в 3D-пространстве. Двумерное дискретное преобразование Фурье и двумерное дискретное вейвлет-преобразование вычисляются для каждого представления. Ши и др. [13] предложил DeepPano. Основная идея DeepPano заключается в преобразовании 3D-форм в 2D-панорамные виды путем проецирования 3D-формы на цилиндрическую поверхность, ось которой параллельна главной оси 3D-формы.Этот подход основан на предположении, что модели в ModelNet-10 и ModelNet-40 ориентированы вертикально. Таким образом, получается изображение, содержащее пространственную информацию, и может быть передано варианту CNN для распознавания объектов. Наиболее креативной частью этого метода является дополнительный слой, слой максимального опроса строк (RWMP), который вставляется между сверточным и полносвязным слоями, чтобы повысить устойчивость изученных представлений к вращению.

3. Методология

В этом разделе мы описываем предлагаемый метод распознавания трехмерных форм.Сначала мы визуализируем 3D-формы обучающего и тестового наборов в 2D-панорамные виды; таким образом мы преобразуем 3D-формы в 2D-наборы данных. Таким образом, получаются используемые нами 2D обучающая и тестовая выборки. Затем мы обрабатываем обучающую выборку с помощью некоторых разумных методов, включая передискретизацию и ротационное расширение, для создания расширенной обучающей выборки. Чтобы повысить производительность сети для распознавания объектов, мы передаем как исходный обучающий набор, так и расширенный обучающий набор в архитектуру CNN.Общая блок-схема, иллюстрирующая предлагаемый метод, показана на рисунке 1.


3.1. Преобразование 3D-формы в 2D-панорамный вид

Для создания панорамного вида 3D-модель окружается цилиндрической поверхностью, центральная ось которой совпадает с главной осью модели. Трехмерная модель сетки состоит из серии небольших треугольников, а положение каждой вершины треугольника представлено декартовыми координатами. В этом случае пространственное положение удобно представлять цилиндрическими координатами.Мы определяем главную ось в вертикальном направлении вверх как положительное направление z, а значение z самой нижней вершины — как начало координат (ноль). Поскольку объекты в одной категории могут иметь разные размеры, что может повлиять на работу алгоритмов классификации объектов, мы автоматически сопоставляем высоту цилиндрической поверхности с высотой объекта.

Процесс создания двухмерного панорамного вида из определенной трехмерной формы показан на рисунке 2. Цилиндрическая поверхность разделена на плотную структуру сетки, и каждый квадрат сетки представлен цилиндрической координатой ( r, θ , h ) его центральной точки p , где θ — полярный угол, h — значение z, а r — значение радиального параметра.Для каждой точки сетки P = ( R I , θ I , H I I ), есть соответствующая точка Q = ( 0, 0, h i ) одинаковой высоты по оси z. Луч, проведенный от точки оси q к соответствующей точке сетки p , может пересекаться или не пересекаться с поверхностью трехмерной формы. Учитывая сложность трехмерных фигур, может быть даже более одного пересечения.Мы измеряем расстояния между начальной точкой q и пересечениями t и для каждой сетки выбираем максимальное расстояние в качестве соответствующего нанесенного на карту расстояния. Кроме того, если пересечения не происходит, мы устанавливаем расстояние равным нулю. Таким образом, каждый квадрат сетки получает определенное значение расстояния. Мы дискретизируем эти значения расстояния до 256 уровней и назначаем соответствующие оттенки серого. Наконец, цилиндрическая поверхность разворачивается под определенным углом θ (здесь мы выбираем θ = 0) для формирования окончательного 2D-изображения.На рис. 3 показаны некоторые примеры панорамного вида.



3.2. Передискретизация и расширение вращения

В этой статье, в дополнение к прямой передаче сгенерированных 2D-изображений в сеть, мы также предобрабатываем 2D-данные двумя способами: передискретизацией и расширением вращения.

Передискретизация предлагается на основе исследования влияния несбалансированных обучающих данных на производительность CNN при классификации изображений [20]. В определенных наборах данных некоторые категории содержат большое количество выборок, тогда как другие категории могут включать только несколько выборок.Такой набор представляет собой несбалансированное распределение между классами. Результаты показывают, что несбалансированные обучающие данные потенциально могут оказать серьезное негативное влияние на производительность CNN. Для преодоления негативных эффектов предлагается метод, называемый передискретизацией. Здесь мы применяем передискретизацию для распознавания 3D, случайным образом выбирая и дублируя образцы во всех классах, кроме самых больших, до тех пор, пока все они не будут иметь одинаковое количество образцов.

В процессе преобразования 3D-форм в 2D-панорамные виды после проецирования 3D-формы на цилиндрическую поверхность мы разворачиваем поверхность под определенным углом и таким образом получаем 2D-изображение. Очевидно, что пиксели по обе стороны от разворачивающегося ангела изначально взаимосвязаны и представляют собой неотъемлемую часть поверхности 3D-модели. Таким образом, левая и правая границы 2D-изображения приводят к потере информации, что может отрицательно сказаться на производительности CNN. Чтобы избежать артефактов, вызванных границами, DeepPano дополняет панорамный вид с одной стороны, а дополненная область клонируется с другой стороны 2D-изображения. Хотя цель состоит в том, чтобы избежать граничных артефактов, закрашенная область означает, что некоторые повторяющиеся пиксели искусственно добавляются к изображению, и это можно рассматривать как другой тип артефакта.Заполненная область — это не только вопрос избыточности информации, но и сильное искажение исходной информации. Это также вводит негативный фактор, влияющий на производительность сети.

Хотя 3D-модели ориентированы вертикально, сверточные функции, извлеченные из панорамных видов, изменяются при вращении 3D-формы. Чтобы обеспечить устойчивость к ротации, в DeepPano вводится новый уровень, называемый максимальным пулированием строк (RWMP). В отличие от типичного слоя объединения в CNN, RWMP просто преобразует элементы строк в картах объектов в один объект, который берет максимальное значение каждой строки во входной карте этого слоя и объединяет их в выходной вектор (рис. 4 (а)) .Таким образом, сдвиг входной карты не влияет на выходные данные слоя RWMP; таким образом, его выходные данные инвариантны к вращению трехмерной формы. Однако это также означает, что большое количество элементов, полученных путем массовых вычислений между несколькими сверточными слоями, в картах признаков отбрасывается. А при преобразовании из матрицы в вектор-столбец сохраняется только пространственная информация вдоль вертикального направления и теряется пространственное распределение элементов внутри каждой строки.Более того, типичный слой пула CNN действует на довольно локальную область, и после операции пула пространственное распределение в значительной степени сохраняется (рис. 4(b)).

Чтобы сохранить преимущества DeepPano, а также попытаться преодолеть упомянутые выше недостатки, предлагается новый метод, называемый расширением вращения (рис. 5). Вместо мягкой области, клонированной с одной стороны и соединенной с другой стороной, круг делится на n равных углов, и определенная трехмерная фигура поворачивается n раз в соответствии с этим набором углов.Таким образом, мы получаем n копий каждой трехмерной формы. На самом деле, учитывая соответствие между 3D-формой и 2D-панорамой, удобнее непосредственно применять циркуляционный перенос к 2D-изображению по серии равномерно расположенных шагов, и эту операцию для удобства можно назвать «поворотом». . Этот процесс эквивалентен разворачиванию цилиндра под разными углами. Хотя каждая копия имеет граничные артефакты, комбинация серии копий сохраняет полную информацию без каких-либо граничных артефактов, и в изображения не вводятся повторяющиеся пиксели, как в подходе с заполнением областей [13]. Если мы применим расширение вращения к обучающей выборке и загрузим ее в нейронную сеть, функции, устойчивые к вращению, будут полностью извлечены, и сеть приобретет вращательную инвариантность, аналогичную эффекту RWMP в DeepPano, но без потери пространственных характеристик. информация внутри строки.


В качестве расширения, с целью дальнейшего повышения устойчивости к вращению признаков, извлеченных из обучающих данных, мы создаем несколько копий для каждой трехмерной формы путем вращения случайным образом, а не в соответствии с равномерно расположенными углами.Чтобы проверить силу устойчивости результатов распознавания к вращению, мы также генерируем вариант тестового набора путем случайного вращения каждого образца в исходном тестовом наборе. Это разумная и необходимая проверка, потому что образцы в ModelNet-10 и ModelNet-40, которые мы использовали, были более или менее искусственно скорректированы на основе наблюдений и информации с веб-сайта Princeton ModelNet. На самом деле, результаты сравнительных экспериментов, приведенные ниже в этой статье, доказывают это.Подробная информация о данных ModelNet и результаты экспериментов представлены в разделе «Эксперименты».

4. Эксперименты
4.1. Наборы данных

Одним из наиболее широко используемых наборов данных 3D-форм является Princeton ModelNet, который содержит 127 915 моделей CAD (автоматизированного проектирования) в 662 категориях объектов. Два его подмножества часто выбираются для обучения и тестирования сетей: (1) ModeleNet-10 — это подмножество, состоящее из 4899 моделей САПР, классифицированных по 10 категориям и разделенных на обучающий набор и тестовый набор.Обучающая выборка включает 3991 модель, а тестовая — 908 моделей. Все модели САПР в ModelNet-10 очищаются вручную и выравнивается ориентация каждой из них. (2) Modelnet-40 — это более крупный набор, чем ModeleNet-10, включающий 12 311 моделей, разделенных на 40 категорий; Модели 9843 используются для обучения, а модели 2468 — для тестирования. Утверждается, что ориентации этих моделей не совпадали. Однако большинство моделей в ModelNet-40 на самом деле удовлетворяют правильному предположению, основанному на наблюдении за значительной частью моделей с помощью программного обеспечения для трехмерной графики.

4.2. Сведения о реализации

В нашей реализации каждая 3D-модель проецируется в панорамное изображение 36 × 108, а обучающая выборка, состоящая из этих панорамных изображений, рассматривается как исходная обучающая выборка. Чтобы улучшить производительность сетей CNN, к исходным данным применяется передискретизация и расширение вращения. Мы называем передискретизированный набор данных сбалансированными данными. Расширение вращения имеет два разных варианта реализации: расширение данных либо в соответствии с n фиксированными, либо n случайными шагами.Первые мы называем регулярно расширяемыми данными, а поздние — случайно расширенными данными. Архитектура сети показана на рис. 6. Для сверточных слоев (conv1–conv4) имеется 64, 80, 160 и 320 карт признаков, а для каждого сверточных слоев размер фильтров равен 1, 2, 4. и 6 соответственно. Слой максимального объединения 2 × 2 вставляется после каждого сверточного слоя. Для полносвязных слоев (fc1–fc2) имеется 512 и 1024 скрытых элемента. Вероятности выходного класса слоя softmax, и класс с наибольшей вероятностью считается прогнозом.Таблица 1 иллюстрирует сравнение размеров между нашей архитектурой и другими типичными методами. Очевидно, что входной размер нашей архитектуры намного меньше по сравнению с другими архитектурами, а также количество ядер в сверточных слоях и количество весов в полносвязных слоях. Кроме того, кроме conv1, шаги conv2, conv3 и conv4 равны 2. Все эти факты приводят к тому, что размерность нашей архитектуры намного меньше, чем у других архитектур.Сеть обучается с использованием стохастического градиентного спуска (SGD) с методами среднеквадратичного затухания, затухания веса и отсева.

161


3D Shipenets [7] Наш метод

Размер ввода 30 × 30 × 30
160 × 64
108 × 36
COV1 (6, 48) (5, 96) (1, 64)
COV2 (5, 160) (5, 256) (2, 80) (2, 80)
CORV3 (4, 512) (3, 384) 9 0158 Неизвестный 0
(4, 160)
COV4

NOTE (3, 512) (6, 320) (6, 320)
FC1 1200 Неизвестно 512
FC2 4000 1024
Размер выхода 10 или 40 10 или 40 10 или 40




Строительство панорамных видов реализована отдельно в C++, рендеринг панорамного вида для каждой трехмерной формы с неоптимизированной реализацией ЦП. Сеть с ускорением на графическом процессоре реализована в рамках платформы TensorFlow, работающей на машине с процессором Intel Core-i7, графическим процессором NVIDIA TITAN-XP и 16 ГБ ОЗУ. Тренировочный процесс занимает от 20 мин до 4 ч, в зависимости от того, какой тип тренировочного набора выбран.

4.3. Классификация 3D-форм

Чтобы оценить предлагаемый метод распознавания 3D-форм, мы обучили классификационную сеть с помощью различных обучающих наборов (исходная, передискретизированная, обычное расширение и случайное расширение).Конвейер показан синей стрелкой на рисунке 1. Производительность оценивается по средней точности категории. Мы сравниваем наш метод с методами дескриптора светового поля [23] (LFD, 4700 измерений), дескриптора сферических гармоник [22] (SPH, 544 измерения), методов 3D ShapeNets [7] и DeepPano [21].

Таблица 2 суммирует результаты. Исходя из сравнения параметров архитектур и результатов классификации, наш метод в той или иной степени превосходит все остальные методы. Созданные вручную LFD, SPH, PANORAMA и DeepPano спроектированы так, чтобы быть инвариантными к вращению, и глубоко изученное представление, полученное нашим методом, было эффективным. В основном это связано с тем, что мы разработали доступную архитектуру и потребовали, чтобы сеть изучила вращательно-инвариантное представление, предоставив ей обучающий набор, обработанный путем передискретизации и расширения вращения.

3
Modelnet-10

75,47% 0157
4%
Дескриптор сферической гармоники [22] 79.79% 68.23%
Освещенные дескриптор [23] 79.87% 75.47%
3D Shipenets [7] 83.32% 77.32%
Deeppano [13] 88. 66% 82.0169 82.54%
89.04% 80,68% 80157 Учебная подготовка 0157
89.80% 81.85%
Регулярно расширенные тренировочные набор 87.54% 82,47%
85.62% 80.55% 8057

для моденика -10, максимальная точность составляет 89,80%, что соответствует сбалансированной обучающей выборке. Сбалансированный тренировочный набор дал не намного лучший результат, чем исходный тренировочный набор. Хорошо известно, что обучение сети с несбалансированным набором данных, как правило, вредит тем классам с наименьшим количеством примеров и приносит пользу тем, у которых больше всего [24], и неясно, как несбалансированный атрибут влияет на экспериментальные результаты. Иногда балансировка обучающего набора повышает точность классов с меньшим количеством примеров, но снижает вероятность успеха для классов с большим количеством образцов [7]. Для ModelNet-10 общий эффект сбалансированного обучающего набора заключается в сохранении немного более высокой точности, чем исходный. Для сбалансированных тренировочных наборов, обработанных путем расширения вращения, как обычное, так и случайное расширение приводили к небольшому падению точности. Причина в том, что ModelNet-10 хорошо выровнен, а трехмерная ориентация моделей очень стабильна.Это делает сложность исходного обучающего набора и тестового набора точно одинаковыми; представления, полученного из исходного или сбалансированного обучающего набора, достаточно для распознавания моделей в тестовом наборе с достаточно хорошей производительностью. Представление, полученное из обучающего набора, обработанного расширением вращения, имеет высокую степень вращательной инвариантности, которая не является необходимой для исходного тестового набора. То есть для менее сложного тестового набора расширение вращения фактически вносит шум в представление и оказывает негативное влияние на результаты.

ModelNet-40 не так хорошо выровнен, как ModelNet-10. Это означает, что 3D-ориентация моделей в ModelNet-40 имеет гораздо более высокую сложность, а экспериментальные результаты сильно отличаются от ModelNet-10. Сбалансированный тренировочный набор по-прежнему сохраняет немного более высокую точность, а самая высокая точность составляет 82,47%, что соответствует регулярно расширяемому тренировочному набору, а не исходному тренировочному набору. В первую очередь это связано с тем, что тестовый набор более сложен в трехмерной ориентации, и поэтому для правильного представления требуется эквивалентная или немного более высокая сложность.В то время как точность, соответствующая исходному обучающему набору, ниже 82,47%, представление, полученное из регулярно расширяемого обучающего набора, приобретает подходящую сложность по сравнению с тестовым набором. Точность, соответствующая случайно расширенному обучающему набору, почти равна исходному обучающему набору. Причина в том, что случайное вращение моделей в исходном обучающем наборе приводит к получению изученных функций с более высокой сложностью, чем в тестовом наборе. Следовательно, это не помогает повысить точность распознавания.

4.4. Надежность и обобщение

Как упоминалось в разделе 3, расширение вращения может улучшить инвариантность распознавания вращения. Также известно, что модели в ModelNet-10 хорошо выровнены, а трехмерная ориентация моделей очень постоянна, тогда как модели в ModelNet-40 не выравниваются вручную, но все же имеют определенную регулярность. Следовательно, нельзя установить, обладает ли представление, полученное сетью, высокой степенью устойчивости к вращению по экспериментальным результатам исходного тестового набора.Жизнеспособным решением является случайное чередование моделей в тестовом наборе и сравнение результатов исходного тестового набора и тестового набора, обработанного случайным чередованием, соответствующих одному и тому же обучающему набору (конвейер показан фиолетовыми стрелками на рисунке 1). Если точность эквивалентна, мы можем подтвердить, что представление, полученное из расширенного обучающего набора, имеет высокую степень надежности и что сеть может распознавать более сложные формы, что также означает хорошую производительность обобщения.

Результаты, соответствующие исходному обучающему набору, показаны на рис. 7.Очевидно, что разница в точности между исходным тестовым набором и тестовым набором случайного вращения велика. Это доказывает, что представление, полученное в результате обучения на исходном обучающем наборе, не является надежным. Это также косвенно доказывает, что модели в Modelnet-10 хорошо выровнены, и хотя каждая модель в ModelNet-40 не выровнена, 3D-ориентация имеет определенную регулярность. С таким обучающим набором изученное представление не обладает достаточной вращательной инвариантностью, чтобы справиться с распознаванием на более сложном тестовом наборе.

На рис. 8 показаны результаты регулярно расширяемой обучающей выборки. Разница в точности между двумя типами наборов тестов все еще существует, но разрыв значительно меньше. Точность тестового набора со случайным вращением еще ниже. Хотя сеть, обученная на обучающем наборе, получает высокую вращательную инвариантность за счет регулярного расширения, сложность по-прежнему не соответствует сложности тестового набора со случайным вращением.

На рис. 9 показаны результаты экспериментов на случайно расширенной обучающей выборке.Как для ModelNet-10, так и для ModelNet-40 кривые точности двух типов тестовых наборов почти совпадают, а значение сходимости близко к наилучшей точности распознавания, показанной в таблице 2. Это означает, что представление, полученное путем обучения сети с помощью случайно расширенная обучающая выборка имеет более высокую степень вращательной инвариантности; сеть способна идентифицировать формы, которые имеют более сложную трехмерную ориентацию. Следовательно, этот подход имеет наилучшие характеристики обобщения.

5.Выводы

В этой статье мы предлагаем метод обработки наборов данных на основе панорамного вида для повышения производительности распознавания 3D. Метод расширения потенциально может привести к более высокой точности, значительному повышению устойчивости к более сложным трехмерным формам и лучшей производительности обобщения. Мы также обсудим взаимосвязь между сложностью обучающего набора и тестового набора; делаем вывод, что при совпадении сложности обучающей и тестовой выборок сеть будет показывать наилучшую производительность.Эти результаты предполагают многообещающее будущее для задач 3D-распознавания в реальном времени.

После этой работы есть ряд направлений для изучения в будущем. На этапе эксперимента мы поняли, что повышение точности имеет верхний предел. Это означает, что примененный нами метод имеет естественные ограничения, и это может быть связано с тем, что проецирование 3D-формы на цилиндрическую поверхность не может полностью сохранить исходную 3D-информацию. Мы изучим новые методы преобразования 3D-формы в 2D-данные.Также базы данных, включая использованные нами расширенные, не обладают сложностью, сравнимой с реальным миром. Производительность сети, которую мы обучили, по-прежнему далека от удовлетворения реальных потребностей. Нам нужно найти методы достижения более высокой надежности для различных 3D-жестов. Кроме того, вместо панорамного обзора заслуживает изучения распознавание, основанное на одной перспективе.

Доступность данных

Наборы данных ModeleNet-10 и ModeleNet-40, используемые для поддержки результатов этого исследования, были размещены на веб-сайте Princeton ModelNet (доступны по адресу http://modelnet.cs.princeton.edu/).

Конфликт интересов

Авторы заявляют об отсутствии конфликта интересов.

Благодарности

Это исследование было частично поддержано Фондом развития оборудования Китая (61404150303).

Методы распознавания формы, используемые для распознавания сложных многоугольных форм: книга по СМИ и коммуникациям, глава

Предлагаются два новых алгоритма, алгоритм оптимального и субоптимального решения, для распознавания формы с использованием геометрических расчетов. Они основаны на режиме, что означает, что форма из базы данных, которая считается моделью, сравнивается с другой формой, извлеченной из последовательности изображений, такой как, например, движущийся объект. Предложенные алгоритмы эффективны и допускают сильный шум. У них есть возможность определить близкое соответствие между зашумленным многоугольником, который имеет значительно большее количество сторон, и назначенным многоугольником. Они одинаково хорошо работают для выпуклых и вогнутых многоугольников. Эти алгоритмы инвариантны относительно переноса, поворота, изменения масштаба и достаточно просты в вычислении.Предлагаемый критерий является метрикой. Многоугольные формы сравниваются на основе их площадей и центров тяжести. Один полигон размещается над другим так, чтобы один полигон имел фиксированный центр площади (центр тяжести). Площадь пересечения этих двух многоугольников вычисляется после поворота одного из многоугольников на один градус за раз. Угловое положение с наилучшим совпадением записывается.

Top

1. Введение

Очень важной областью в системах видеонаблюдения является идентификация объектов.Это фаза, которая следует за блоками обнаружения движущихся объектов и отслеживания движущихся объектов. После разработки интеллектуального программного обеспечения, способного извлекать движущиеся объекты из видеопоследовательности без какого-либо постороннего вмешательства, следующая проблема, которую необходимо решить, состоит в том, как научить систему идентифицировать обнаруженный объект и автоматически сообщать об его идентификации. Вот почему распознавание формы имеет теоретическое и практическое значение в обработке изображений и компьютерном зрении.

Многие авторы проводили исследования в области сходства формы (Schwartz, 1984), (Shapiro, 1982), (O’Rourke, 1985), (Hong, 1988), (Cox, 1989), (Avis, 1983), но эти методы зависят от положения, масштаба диапазона и ориентации.Они не являются метриками и также сложны с вычислительной точки зрения. Некоторые из этих методов (Шварц, 1984) и (Кокс, 1989) применимы только к выпуклым многоугольникам, что дополнительно ограничивает предлагаемые алгоритмы. Хаттенлохер и Кедем в (Huttenlocher, 1990) разрабатывают метод, который вычисляет расстояние между двумя фигурами на основе метрики Хаусдорфа. Их метрика сравнивает многоугольные формы независимо от аффинного преобразования. Некоторые из предложенных алгоритмов, например (Wolson, 1987), используют функцию кривизны в качестве сигнатуры формы.Методы, представленные в (Schwartz, 1984), (Shwartz, 1987) и (Arkin, 1991), имеют аналогичный подход. Все они основаны на свертки.

Авторы в (Аркин, 1991) представляют простую границу многоугольника с функцией поворота, которая измеряет угол касательной против часовой стрелки как функцию длины дуги, измеренной от некоторой опорной точки на границе многоугольника. Функция поворота представляет собой угол, который образует касательная в опорной точке с некоторой опорной ориентацией, связанной с многоугольником (например, с осью x).Он отслеживает происходящие повороты, увеличиваясь при левых поворотах и ​​уменьшаясь при правых поворотах. Метрика, предложенная в (Аркин, 1991), оказывается очень проблематичной для зашумленных и разрушенных форм.

Быстрый интерактивный метод распознавания геометрических форм

ПОКАЗАНЫ 1–10 ИЗ 14 ССЫЛОК

СОРТИРОВАТЬ ПОСоответствиеНаиболее влиятельные статьиНедавность

таких объектов, как квадраты, круги, прямоугольники и треугольники, а также цвет объекта могут быть распространены на такие приложения, как роботизированное зрение и компьютерный интеллект.Expand
  • Просмотр 1 выдержки, ссылки на методы

Простой подход к интерактивному распознаванию геометрических фигур

В этой статье используется временная смежность и глобальные геометрические свойства фигур для распознавания простого словаря геометрических фигур, включая стили сплошных и пунктирных линий, выбор и удаление жесты и нашел этот метод очень удобным для использования с приемлемыми показателями распознавания. Expand
  • Посмотреть 2 выдержки, справочные методы

Распознавание формы объекта на изображении для приложений машинного зрения

В этом документе предлагается метод распознавания формы, при котором круг, квадрат и треугольник на изображении будут распознаваться алгоритмом, использующим значение интенсивности из входное изображение затем обрабатывалось методом Оцу для получения бинарного изображения. Развернуть
  • Просмотр 1 отрывок, ссылки на методы

Обнаружение формы с использованием геометрических признаков

Предлагаемая методика обнаружения формы основана на статистических свойствах распределения точек на растровом изображении и подоконном изображении фигуры, что позволяет достичь максимальной точности распознавания 96,7% с использованием 4556 образцов. Expand
  • Посмотреть 2 выдержки, справочные методы

Идентификация формы на основе обнаружения краев

Представлен подход к автоматическому обнаружению и распознаванию правильных 2D-форм в средах с низким уровнем шума, основанный на обнаружении краев и, таким образом, вычислении площади объект помогает в идентификации указанной формы.Expand
  • Просмотр 1 выдержки, справочные методы

Схема быстрого распознавания бенгальских числительных в автономном режиме

Новый подход к распознаванию рукописных бенгальских числительных и обращение к надежной схеме извлечения признаков, которая порождает 23-мерные признаки на основе структуры числительного и топология. Expand
  • Посмотреть 1 отрывок, ссылки на методы

Применение машинного обучения для сверхбыстрого распознавания форм в виртуальном скрининге на основе лигандов

дои: 10.3389/ффар.2019.01675. Электронная коллекция 2019.

Принадлежности Расширять

Принадлежности

  • 1 Кафедра искусственного интеллекта Мальтийского университета, Мсида, Мальта.
  • 2 Центр молекулярной медицины и биобанкинга Мальтийского университета, Мсида, Мальта.
Бесплатная статья ЧВК

Элемент в буфере обмена

Этьен Бонанно и соавт. Фронт Фармакол. .

Бесплатная статья ЧВК Показать детали Показать варианты

Показать варианты

Формат АннотацияPubMedPMID

doi: 10.3389/fphar.2019.01675. Электронная коллекция 2019.

Принадлежности

  • 1 Кафедра искусственного интеллекта Мальтийского университета, Мсида, Мальта.
  • 2 Центр молекулярной медицины и биобанкинга Мальтийского университета, Мсида, Мальта.

Элемент в буфере обмена

Полнотекстовые ссылки Параметры отображения цитирования

Показать варианты

Формат АннотацияPubMedPMID

Абстрактный

Сверхбыстрое распознавание формы (USR), наряду с его производными, представляет собой методы виртуального скрининга на основе лигандов (LBVS), которые объединяют трехмерную информацию о молекулярной форме, а также о других свойствах в небольшой набор числовых дескрипторов.Их можно использовать для эффективного вычисления меры сходства между парами молекул с использованием простой обратной метрики манхэттенского расстояния. В этом исследовании мы изучаем использование подходящих методов машинного обучения, которые можно обучить с помощью дескрипторов USR, чтобы улучшить обнаружение сходства потенциальных новых потенциальных клиентов. Мы используем молекулы из «Справочника полезных приманок-расширенных» для построения моделей машинного обучения на основе трех разных алгоритмов: смешанных моделей Гаусса (GMM), изолированных лесов и искусственных нейронных сетей (ИНС).Мы обучаем модели на основе моделей конформеров полной молекулы, а также только конформаций с наименьшей энергией (LEC). Мы также исследуем производительность наших моделей при обучении на небольших наборах данных, чтобы смоделировать сценарии виртуального скрининга, когда известно лишь небольшое количество активных априори . Наши результаты показывают значительный прирост производительности по сравнению с современным методом, основанным на USR, ElectroShape 5D, при этом GMM достигают средней производительности до 430% лучше, чем у ElectroShape 5D, с точки зрения коэффициента обогащения с максимальным улучшением до 940%. .Кроме того, мы демонстрируем, что наши модели способны поддерживать свою производительность с точки зрения коэффициента обогащения в пределах 10% от среднего значения при последовательном уменьшении размера набора обучающих данных. Кроме того, мы также демонстрируем, что время выполнения ретроспективного скрининга с использованием выбранных нами моделей машинного обучения меньше, чем стандартный USR, в среднем в 10 раз, включая время, необходимое для обучения. Наши результаты показывают, что методы машинного обучения могут значительно повысить производительность виртуального скрининга и эффективность семейства методов USR.

Ключевые слова: Электрошейп; виртуальный скрининг на основе лигандов; сходство лигандов; машинное обучение; сверхбыстрое распознавание формы; виртуальный скрининг.

Copyright © 2020 Бонанно и Эбехер.

Цифры

Рисунок 1

Иллюстрация вычисленных центроидов USR…

Рисунок 1

Иллюстрация центроидов USR, рассчитанных для образца конформера молекулы зидовудина.…

фигура 1

Иллюстрация центроидов USR, рассчитанных для образца конформера молекулы зидовудина. Центроиды обозначены желтыми сферами. Линии между каждым центроидом и молекулярным центром отображаются для ясности. Проиллюстрированы четыре различных вращения молекулы. Легенда: ctd, молекулярный центроид; cst, ближайший атом к ctd; fct, самый дальний атом от ctd; ftf, самый дальний атом от fct.

Рисунок 2

Сравнение коэффициента обогащения при…

Рисунок 2

Сравнение коэффициента обогащения при 1% ( EF 1% ), полученное USR…

фигура 2

Сравнение коэффициента обогащения при 1% ( EF 1% ), полученного с помощью USR, с коэффициентом, полученным с помощью ElectroShape 5D с использованием полных конформерных моделей.Также на графике показано процентное соотношение коэффициента обогащения ElectroShape 5D по сравнению со сверхбыстрым распознаванием формы (USR). Среднее соотношение = 253% ± 122%, макс. = 738%, мин. = 104%.

Рисунок 3

Сравнение коэффициента обогащения при…

Рисунок 3

Сравнение коэффициента обогащения при 1%, полученного USR, с коэффициентом, полученным…

Рисунок 3

Сравнение коэффициента обогащения при содержании 1%, полученного с помощью USR, с коэффициентом, полученным с помощью ElectroShape 5D с использованием конформаторов с наименьшей энергией.Также на графике показано процентное соотношение коэффициента обогащения ElectroShape 5D по сравнению со сверхбыстрым распознаванием формы (USR). Среднее соотношение = 283% ± 125%, макс. = 755%, мин. = 124%.

Рисунок 4

ElectroShape 5D EF 1% рассчитано…

Рисунок 4

ElectroShape 5D EF 1% рассчитано на основе набора данных DUD, как сообщается в Armstrong…

Рисунок 4

ElectroShape 5D EF 1% рассчитано на основе набора данных DUD, как указано в Armstrong et al.(2011). Условные обозначения: 5D(x,y,z,q = MMFF94x,aLogP) — ElectroShape 5D с частичным зарядом и липофильностью в качестве 4-го и 5-го измерений, 4D(x,y,z,q = MMFF94x) — ElectroShape 4D с частичным зарядом в качестве 4-е измерение, 4D (x, y, z, q = aLogP) — ElectroShape 4D с использованием липофильности в качестве 4-го измерения. Воспроизведено из Armstrong et al., 2011.

Рисунок 5

Сравнение коэффициента обогащения при…

Рисунок 5

Сравнение коэффициента обогащения при 1%, полученного с помощью моделей смеси Гаусса, с этим…

Рисунок 5

Сравнение коэффициента обогащения при 1%, полученного с помощью моделей гауссовских смесей, с коэффициентом, полученным с помощью ElectroShape 5D с использованием модели полного конформера.Также на графике представлено процентное соотношение коэффициента обогащения Гауссовой модели смеси (GMM) по сравнению с ElectroShape 5D. Среднее соотношение = 430% ± 223%, макс. = 941%, мин. = 107%.

Рисунок 6

Сравнение коэффициента обогащения при…

Рисунок 6

Сравнение коэффициента обогащения при 1%, полученного с помощью гауссовой модели смеси, с этим…

Рисунок 6

Сравнение коэффициента обогащения при 1%, полученного с помощью гауссовской модели смеси, с коэффициентом, полученным с помощью ElectroShape 5D с использованием конформеров с наименьшей энергией.Также на графике представлено процентное соотношение коэффициента обогащения Гауссовой модели смеси (GMM) по сравнению с ElectroShape 5D. Среднее соотношение = 291% ± 162%, макс. = 829%, мин. = 0%.

Рисунок 7

Сравнение коэффициента обогащения при…

Рисунок 7

Сравнение коэффициента обогащения на уровне 1%, полученного с помощью Isolation Forest, с полученным…

Рисунок 7

Сравнение коэффициента обогащения при 1%, полученного с помощью Isolation Forest, с коэффициентом, полученным с помощью ElectroShape 5D с использованием полной модели конформера.Также на графике показано процентное соотношение коэффициента обогащения Isolation Forest по сравнению с ElectroShape 5D. Среднее соотношение = 211% ± 90%, макс. = 941%, мин. = 107%.

Рисунок 8

Сравнение коэффициента обогащения при…

Рисунок 8

Сравнение коэффициента обогащения на уровне 1%, полученного с помощью Isolation Forest, с полученным…

Рисунок 8

Сравнение коэффициента обогащения при 1%, полученного с помощью Isolation Forest, с коэффициентом, полученным с помощью ElectroShape 5D с использованием конформеров с наименьшим энергопотреблением. Также на графике показано процентное соотношение коэффициента обогащения Isolation Forest по сравнению с ElectroShape 5D. Среднее соотношение = 190% ± 84%, макс. = 460%, мин. = 0%.

Рисунок 9

Сравнение коэффициента обогащения при…

Рисунок 9

Сравнение коэффициента обогащения при 1%, полученного искусственными нейронными сетями с 500 узлами…

Рисунок 9

Сравнение коэффициента обогащения при 1%, полученного с помощью Artifical Neural Networks со скрытым слоем из 500 узлов, с коэффициентом, полученным с помощью ElectroShape 5D с использованием полных моделей конформеров. Также на графике показано процентное соотношение коэффициента обогащения искусственной нейронной сети (ANN) по сравнению с ElectroShape 5D. Среднее соотношение = 328% ± 149%, макс. = 636%, мин. = 30%.

Рисунок 10

Сравнение коэффициента обогащения при…

Рисунок 10

Сравнение коэффициента обогащения при 1%, полученного с помощью искусственных нейронных сетей со 100 узлами…

Рисунок 10

Сравнение коэффициента обогащения при 1%, полученного с помощью искусственных нейронных сетей со скрытым слоем из 100 узлов, с коэффициентом, полученным с помощью ElectroShape 5D с использованием полных конформерных моделей. Также на графике показано процентное соотношение коэффициента обогащения искусственной нейронной сети (ANN) по сравнению с ElectroShape 5D. Среднее соотношение = 256% ± 129%, макс. = 565%, мин. = 82%.

Рисунок 11

Сравнение коэффициента обогащения при…

Рисунок 11

Сравнение коэффициента обогащения при 1%, полученного искусственными нейронными сетями, с 100-узловыми…

Рисунок 11

Сравнение коэффициента обогащения при 1%, полученного с помощью искусственных нейронных сетей со скрытым слоем из 100 узлов, с коэффициентом, полученным с помощью ElectroShape 5D с использованием конформеров с наименьшим энергопотреблением. Также на графике показано процентное соотношение коэффициента обогащения искусственной нейронной сети (ANN) по сравнению с ElectroShape 5D. Среднее соотношение = 256% ± 107%, макс. = 491%, мин. = 57%.

Рисунок 12

Изменение производительности модели полного соответствия…

Рисунок 12

Изменение производительности модели с полным конформером Gaussian Mixture Models с количеством активных элементов.Разброс…

Рисунок 12

Изменение производительности модели с полным конформером Gaussian Mixture Models с количеством активных элементов. Точечная диаграмма указывает на одну точку на шаблон в пределах заданного диапазона. Количество шаблонов, захваченных в пределах диапазона, указано в метках осей. Обратите внимание, что несколько точек, принадлежащих одной и той же цели, могут попадать в один диапазон из-за используемых порогов биннинга.

Рисунок 13

Вариант производительности Lowest Energy…

Рисунок 13

Вариант производительности модели Gaussian Mixture Model с наименьшей энергетической конформацией (LEC) с номером…

Рисунок 13

Изменение производительности модели с наименьшей энергетической конформацией (LEC) Модель гауссовой смеси с количеством активных элементов.Точечная диаграмма указывает на одну точку на шаблон в пределах заданного диапазона. Количество шаблонов, захваченных в пределах диапазона, указано в метках осей. Обратите внимание, что несколько точек, принадлежащих одной и той же цели, могут попадать в один диапазон из-за используемых порогов биннинга.

Все фигурки (13)

Похожие статьи

  • ElectroShape: быстрые расчеты молекулярного сходства с учетом формы, хиральности и электростатики.

    Армстронг М.С., Моррис Г.М., Финн П.В., Шарма Р., Моретти Л., Купер Р.И., Ричардс В.Г. Армстронг М.С. и др. J Comput Aided Mol Des. 2010 сен; 24 (9): 789-801. doi: 10.1007/s10822-010-9374-0. Epub 2010 8 июля. J Comput Aided Mol Des. 2010. PMID: 20614163

  • Повышение точности сверхбыстрого скрининга на основе лигандов: включение липофильности в ElectroShape в качестве дополнительного измерения.

    Армстронг М.С., Финн П.В., Моррис Г.М., Ричардс В.Г. Армстронг М.С. и др. J Comput Aided Mol Des. 2011 авг; 25 (8): 785-90. doi: 10.1007/s10822-011-9463-8. Epub 2011 6 августа. J Comput Aided Mol Des. 2011. PMID: 21822723

  • Законность: несуперпозиционный, основанный на знаниях подход к виртуальному скринингу.

    Эбеджер Дж. П., Финн П. В., Вонг В. К., Дин К. М., Моррис Г. М.Эбеджер Дж. П. и соавт. Модель J Chem Inf. 2019 24 июня; 59 (6): 2600-2616. doi: 10.1021/acs.jcim.8b00779. Epub 2019 4 июня. Модель J Chem Inf. 2019. PMID: 31117509 Бесплатная статья ЧВК.

  • Трехмерные методы сравнения соединений и их применение при открытии лекарств.

    Шин У.Х., Чжу С., Бурес М.Г., Кихара Д. Шин У.Х. и др. Молекулы. 2015 16 июля; 20 (7): 12841-62.doi: 10.3390/молекулы200712841. Молекулы. 2015. PMID: 26193243 Бесплатная статья ЧВК. Рассмотрение.

  • Сверхбыстрое распознавание формы: метод и приложения.

    Баллестер П.Дж. Баллестер П.Дж. Future Med Chem. 2011 Январь; 3(1):65-78. doi: 10.4155/fmc.10.280. Future Med Chem. 2011. PMID: 21428826 Рассмотрение.

Цитируется

2 статьи
  • Быстрая идентификация потенциальных кандидатов в лекарства из многомиллионных репозиториев соединений.Комбинация 2D-поиска подобия с 3D-методами на основе лигандов/структур и скринингом in vitro.

    Силагьи К., Флахнер Б. , Хайду И., Сашко М., Доби К., Лоринц З., Чех С., Дорман Г. Силагьи К. и др. Молекулы. 2021 15 сентября; 26 (18): 5593. doi: 10,3390/молекулы 26185593. Молекулы. 2021. PMID: 34577064 Бесплатная статья ЧВК. Рассмотрение.

  • Применение виртуального скрининга в биоразведке: факты, сдвиги и перспективы изучения химико-структурного разнообразия натуральных продуктов.

    Сантана К., ду Насименту Л.Д., Лима Э. Лима А., Дамаскено В., Нахум С., Брага Р.С., Ламейра Дж. Сантана К. и др. Фронт хим. 2021 29 апр;9:662688. doi: 10.3389/fchem.2021.662688. Электронная коллекция 2021. Фронт хим. 2021. PMID: 33996755 Бесплатная статья ЧВК. Рассмотрение.

использованная литература

    1. Айн К. Ю., Александрова А., Ресслер Ф. Д., Баллестер П. Дж. (2015). Функции оценки машинного обучения для улучшения прогнозирования сродства связывания на основе структуры и виртуального скрининга. Уайли Междисциплинарный. Преп. Вычисл. Мол. науч. 5, 405–424. 10.1002/wcms.1225 — DOI — ЧВК — пабмед
    1. Армстронг С.М., Моррис Г.М., Финн П.В., Шарма Р., Ричардс В.Г. (2009). Молекулярное сходство, включая хиральность. Дж. Мол. График Модель. 28, 368–370. 10.1016/j.jmgm.2009.09.002 — DOI — пабмед
    1. Армстронг С.М., Моррис Г.М., Финн П.В., Шарма Р., Моретти Л., Купер Р.И. и соавт. (2010). ElectroShape: быстрые расчеты молекулярного сходства с учетом формы, хиральности и электростатики. Дж. Вычисл. Помощь. Мол. Дес. 24, 789–801. 10.1007/s10822-010-9374-0 — DOI — пабмед
    1. Армстронг С. М., Финн П.В., Моррис Г.М., Ричардс В.Г. (2011). Повышение точности сверхбыстрого скрининга на основе лигандов: включение липофильности в ElectroShape в качестве дополнительного измерения. Дж. Вычисл. Помощь. Мол. Дес. 25, 785–790. 10.1007/s10822-011-9463-8 — DOI — пабмед
    1. Баллестер П.Дж., Ричардс В.Г. (2007. а). Сверхбыстрое распознавание формы для поиска подобия в молекулярных базах данных. проц. Р. Соц. Математика. физ. англ. науч. 463, 1307–1321. 10.1098/rspa.2007.1823 — DOI

Показать все 49 ссылок

[Икс]

Укажите

Копировать

Формат: ААД АПА МДА НЛМ

Квантование формы и распознавание с помощью рандомизированных деревьев | Нейронные вычисления

Мы изучаем новый подход к распознаванию форм, основанный на практически бесконечном семействе бинарных признаков (запросов) данных изображения, предназначенных для размещения предварительной информации об инвариантности и регулярности формы. Каждый запрос соответствует пространственному расположению нескольких локальных топографических кодов (или тегов), которые сами по себе слишком примитивны и распространены, чтобы давать информацию о форме. Вся способность различения зависит от относительных углов и расстояний между метками. Важными атрибутами запросов являются естественный частичный порядок , соответствующий возрастающей структуре и сложности; полуинвариантность , что означает, что большинство форм данного класса будут одинаково отвечать на два последовательных запроса; и стабильность , так как запросы не основаны на выделенных точках и подструктурах.

Никакой классификатор, основанный на полном наборе признаков, не может быть оценен, и невозможно априори определить, какие схемы являются информативными. Наш подход заключается в одновременном выборе информативных признаков и построении древовидных классификаторов с помощью индуктивного обучения. По сути, каждое дерево обеспечивает приближение к полному апостериорному, где выбранные признаки зависят от пройденной ветви. Из-за количества и характера запросов стандартное построение дерева решений на основе вектора признаков фиксированной длины невозможно.Вместо этого мы обрабатываем только небольшую случайную выборку запросов в каждом узле, ограничиваем их сложность увеличением глубины дерева и выращиваем несколько деревьев. Конечные узлы помечены оценками соответствующего апостериорного распределения по классам формы. Изображение классифицируется путем отправки его по каждому дереву и агрегирования полученных распределений.

Метод применяется для классификации рукописных цифр и синтетических линейных и нелинейных деформаций трехсот символов.Самые современные коэффициенты ошибок достигаются в базе данных цифр Национального института стандартов и технологий. Основная цель экспериментов с символами состоит в том, чтобы проанализировать инвариантность, ошибку обобщения и связанные с этим вопросы, и в этом контексте представлено сравнение с методами искусственных нейронных сетей.

Рисунок 1:

Рисунок 1:

Использование алгоритмов машинного обучения для распознавания изображений

1.

ВВЕДЕНИЕ

Тема использования искусственного интеллекта в ситуациях, когда невозможно четко классифицировать данные, в настоящее время пользуется все большей популярностью. Искусственные нейронные сети (ИННС) используются в смартфонах, автономных автомобилях или трансляционных инструментах [1, 2, 11, 17]. Благодаря своей способности к обучению, основанной на поиске сходства между объектами и их обобщении, они способны решать задачи, где требуется очень точная классификация [6, 8, 18, 19].

В статье представлено приложение для распознавания объектов на изображениях с использованием алгоритмов машинного обучения, задачей которого является распознавание объектов, видимых на изображении, и присвоение им правильной метки [13, 16]. Особенно важна здесь высокая способность идентифицировать объекты, которые были ранее не входившие в обучающую выборку, что отличает нейронные сети от других алгоритмов.

2.

АНАЛИЗ ИЗОБРАЖЕНИЯ

Прежде чем станет возможным использовать ИНС в качестве модели с использованием алгоритмов машинного обучения, необходимо правильно обработать изображение, которое можно разделить на несколько этапов, как показано на рисунке 1. Сегментация — первое действие, выполняемое в процессе машинного обучения для распознавания объектов [3, 14].

Рисунок 1.

Здесь изображение разделено на части, которые так или иначе связаны друг с другом. Это делается для предварительного выделения областей, принадлежащих данному объекту, его границ, формы или ограничения отправки на следующий этап ненужной информации в память компьютера.

Следующим этапом является анализ признаков изображения, который позволяет выявить и описать свойства объекта, которые часто остаются незамеченными с помощью одних лишь глаз.

Свойства объекта можно сгруппировать в несколько основных групп, например. геометрические, негеометрические, топологические. Выбор того, какие признаки изображения подлежат анализу, является индивидуальным делом в зависимости от конечного результата [4, 5, 10]. Однако для целей этого алгоритма наиболее важной является математическая сторона обработки анализируемых признаков изображения, в результате которой получаются так называемые сигнатуры и скелетоны, то есть одномерные функции, представляющие контуры объекта. После выполнения этих предварительных действий происходит процесс распознавания объектов с помощью искусственных нейронных сетей, в котором возможно использование методов глубокого обучения.

3.

ИСКУССТВЕННЫЕ НЕЙРОННЫЕ СЕТИ

3.1

Основная информация.

Принцип работы нейрона можно представить следующим образом:

где: х i — значение i -го входного сигнала, w i — весовой коэффициент i — i й сигнал, n — количество нейронов во входном сигнале, e — общее значение стимуляции нейрона, y — значение на выходном нейроне, f — функция активации.

После вычисления суммы e с использованием весовых коэффициентов w i и входных сигналов x i результат умножается на функцию активации f , которая должна удовлетворять следующим условиям:

  • • непрерывность изменения ваших минимальных и максимальных значений,

  • • непрерывность производной (производную тоже нетрудно вычислить).

Использовалась функция активации ReLU, параметры которой изображены на рисунке 2.Этот тип функции активации в настоящее время является наиболее часто используемой функцией активации для обучения нейронных сетей, предназначенных для распознавания объектов на изображениях. Это происходит из-за ее бесконечно стремящегося ответа на действительный сигнал и обнуления значения нейрона для отрицательного сигнала.

Рисунок 2.

Представление функции активации ReLu и сравнение ее первой производной (справа) с производными других функций активации

Такой подход означает, что в сети используются не все нейроны, что защищает ее от переобучения и ускоряет процесс обучения сети.Кроме того, ReLU очень просто вычисляет производную, а его линейность позволяет использовать метод обратного распространения ошибки для корректировки весовых коэффициентов в сети.

3.2

Нейросетевая модель

Создание программы распознавания объектов на изображении требует разработки математической модели и комплексного подхода в связи с большим объемом данных, необходимых для обработки и классификации. Одним из возможных решений распознавания объектов на изображении, благодаря эффективности работы, является использование ИНС, в которых будут реализованы корректные алгоритмы машинного обучения.Схема нейронной сети, используемой в этой программе, изображена на рисунке 3, [15].

Рисунок 3.

Предлагаемая модель нейронной сети

Это сеть с прямой связью . Информация в сетевой архитектуре такого типа движется только вперед, рис. 4. Сеть состоит из нескольких слоев, что является очень распространенным решением [20]. В результате получается сложная структура с большим количеством связей, склонная к так называемому переоснащению . Сеть состоит из входного слоя, скрытых слоев и выходного слоя, которые по своему характеру можно разделить на две группы:

Рисунок 4.

Сеть с полносвязными слоями (слева) и регуляризованная сеть (справа)

  • • Первые три слоя сети (включая входной слой), которые благодаря использованию фильтрующих масок адаптированы к ожидаемых характеристик, уменьшить «размерность» изображения, а затем, используя характерный иерархический паттерн, содержащийся в данных (несколько характерных признаков отвечают за распознавание формы не всего изображения, поскольку одни пиксели несут больше информации, чем другие), позволяют использовать меньше нейронов и связей между ними для достижения того же эффекта. Это особенно важно в случае многоуровневых сетей, подверженных переобучению данных.

  • • Слои с полными соединениями нейронов друг с другом (эта сеть пока односторонняя), которые являются последними тремя слоями для обработки данных (включая выходной слой, с количеством нейронов, равным количеству нейронов). объекты, которые можно классифицировать) и два слоя с 4096 нейронами, которые отвечают за математические вычисления. На рис. 4 показаны различия между архитектурой слоев.

Использование данного алгоритма позволяет ускорить работу нейронной сети, поскольку программист выступает в роли учителя, который знает, какие значения он ожидает на выходе нейронной сети, определяя правильность результата алгоритма. Когда несоответствие слишком велико, он дает предполагаемое изменение значения, которое позволит правильно распознать объект, и дает указание алгоритму сделать следующую итерацию — сеть учится, зная, какой результат она должна получить, поэтому изначально случайные значения на отдельных нейронах будут быстро устанавливается на уровне, обеспечивающем предполагаемую работу сети. Идея метода обратного распространения показана на рисунке 5.

Рисунок 5.

Идея алгоритма обучения с учителем вместе с изменением веса методом обратного распространения

Этот метод используется для расчета значений нейронов — он делает это с помощью математические формулы. В основе ее работы лежит использование знаний о результате, который должен быть получен на выходе сети. Затем вычисляется ошибка между предложенным значением и значением, полученным сетью, и ошибка корректируется путем изменения значения на нейронах [11].Эта простая задача усложняется сетью, состоящей из нескольких слоев, которая является основным типом, используемым в более совершенных алгоритмах искусственного интеллекта. В этом случае алгоритм обратного распространения суммирует ошибки нейронов из скрытого слоя, предшествующего последнему измененному слою, и только затем корректирует их значения и веса между ними.

Операции алгоритма можно представить следующим образом:

  • • Рандомизация весовых значений и присвоение их нейрону.

  • • Загрузка входных данных (уже в математической форме).

  • • Ввод предполагаемого выходного значения и на его основе расчет значений на выходах нейронов и их сравнение. Расчет ошибки вывода сети.

  • • Расчет ошибок скрытого слоя за выходным слоем с учетом ошибки выходного слоя и суммы ошибок скрытого слоя (с сохранением весов между нейронами).

  • • Повторение процедуры для следующего скрытого слоя с использованием его суммированных ошибок и ошибки вывода, предшествующей скрытому значению, рассчитанному на предыдущем шаге.

  • • Повторение процедуры для следующего скрытого слоя с использованием его суммарных ошибок и выходной ошибки предыдущего скрытого слоя, рассчитанной на предыдущем шаге.

  • • После вычисления ошибок во всех скрытых слоях алгоритм аналогичным образом изменяет значения нейронов входного слоя.

  • • Все веса в сети изменены.

  • • Ошибка уменьшается с каждым полным проходом алгоритма, пока не упадет до приемлемого для учителя уровня.

4.

ОПТИМИЗАЦИЯ РАБОТЫ СЕТЕВОЙ МОДЕЛИ

Нейросетевая модель, представленная в разделе 3.2, состоит из нескольких основных элементов. Помимо использования типичных слоев нейронной сети, состоящих из нейронов и функций активации, он также имеет элементы, отвечающие за оптимизацию работы сети, что позволяет проводить ее правильные расчеты и блокирует возможность переобучения, несмотря на очень большой объем данных.

Функция модели norm1 отвечает за нормализацию локального ответа , через процедуру так называемого затухания, задача которой нормализовать бесконечную активность нейрона. Возможны два типа нормализации, каждый из которых имеет тенденцию к усилению возбужденного нейрона и подавлению соседнего в диапазоне ограниченных значений. Метод ищет самые сильные реакции нейронов и нормализует реакции соседних нейронов, делая выбранный нейрон еще более чувствительным к особенностям объекта.Если все ответы соседних нейронов достаточно велики, то функция будет ограничивать значения во всех нейронах из данного канала, потому что ни один из них не будет считаться особо чувствительным. Помимо нормализации, эта функция также ограничивает количество нейронов, используемых при обучении.

Существует два вида нормализации: в одном канале (группе соседних нейронов) и между каналами, что предполагает рассмотрение окрестностей в трех, а не в двух измерениях.

Ниже приведена формула, описывающая процесс двумерной нормализации, т.е. для соседних групп нейронов:

где: — нормированный вывод ядра « i » (место суммирования весов) в позиции ( x, y ), — исходный вывод ядра привязан к позиции ( x, y ), N — общее количество нейронов, n — размер канала нормализации, k — гиперпараметр функции.

После нормализации данные отправляются в статистический фильтр, так называемый max pooling , который извлекает максимальное значение из маски и уменьшает количество вычислений в последующих слоях.Применение этого фильтра к непересекающимся подобластям приводит к передаче только самых больших значений, что значительно уменьшает объем данных, необходимых для дальнейшей обработки, без снижения эффективности алгоритма [9]. Простота этого решения для маскирующего фильтра 2×2 показана на рисунке 6.

Рисунок 6.

Работа фильтра максимального объединения

Прежде чем информация достигнет выхода сети, она еще должна пройти через функцию Softmax .Его задача, как передаточной функции, состоит в том, чтобы преобразовать входной вектор из принятого значения в выходную информацию в виде вектора с нормализованными значениями между 0 и 1, чтобы выходной слой получил конкретную информацию, которую можно интерпретировать как определенная вероятность, которая поможет определить процент точности сети в случае ее анализа. Пример работы этой функции показан на рисунке 7.

Рисунок 7.

Работа функции Softmax

В настройке структуры сети помогают такие инструменты, как Optimal Brain Damage и Optimal Brain Surgery , задачи которых являются обнаружение и избавление от нейронов, не участвующих в операции.Самые продвинутые алгоритмы Google для распознавания объектов используют запатентованный метод Dropout , работающий аналогично вышеупомянутым инструментам.

Очистка сети не только ускоряет процесс обучения, но и повышает ее точность, делая ее более устойчивой к переоснащению . Также следует помнить о сохранении оптимального количества скрытых слоев, потому что слишком большое их количество будет перегружать сеть, а слишком маленькое может оказаться недостаточно сложным для решения поставленной задачи.

5.

ПРОЦЕСС ОБУЧЕНИЯ НЕЙРОННОЙ СЕТИ

Чрезвычайно важно установить скорость обучения на соответствующем уровне в программе [15, 17]. Этот коэффициент определяет, на какое максимальное значение может измениться вес нейрона. Когда это значение слишком низкое, процесс обучения сети становится непропорционально более продолжительным, поскольку для внесения указанных учителем исправлений требуется гораздо больше итераций. Однако, когда он слишком высок, коррекция веса, выполняемая для нейронов, будет настолько велика, что будет препятствовать правильному процессу обучения.

Коррекция весов с большими значениями означает, что рассчитанные значения для нейронов, несмотря на последующие итерации, не смогут вписаться в схему сети, из-за чего они будут все время случайными, как, например, в начальной фазе процесс изучения. При правильном выборе скорости обучения (рис. 8) сеть обучается правильно и через несколько эпох уже достигает требуемой точности распознавания. Дальнейшее обучение не оказывает большего влияния на повышение точности распознавания.

Рисунок 8.

Тест сети на скорость обучения =1

Если значение этого фактора установлено слишком большим (рис. 9), процесс обучения сети идет очень быстро, что не всегда является положительным явлением, т.к. сеть может остановиться на локальном минимуме и, таким образом, не достичь максимальной точности распознавания. Неправильный выбор весов в процессе обучения сети также может увеличить время ее обучения.

Рисунок 9.

Тест сети на скорость обучения = 1

На заключительном этапе, когда отношение уменьшилось из-за использования функции Drop LearnigFactor , сеть зависла на минимальных значениях точности и не будет работать должным образом.Слишком небольшая коррекция весов, как показано на рисунке 10, излишне увеличивает продолжительность процесса обучения.

Рисунок 10.

Тест сети на скорость обучения = 1

Как видно из приведенных выше результатов расчета, худшим для сети является установка слишком высокой коррекции веса, что может привести к тому, что среднеквадратическая ошибка будет случайно установлена ​​ниже значение, несмотря на то, что распределение веса по нейронам еще не гарантирует корректную работу сети.Для предотвращения такой ситуации в разработанном программном приложении использовалось правило импульса. Он работает путем объединения значений коррекции весов из предыдущей и текущей итерации через коэффициент α . Такое использование импульса приводит к тому, что коррекция весов ( скорость обучения ) начинается с некоторого высокого уровня, а затем уменьшается с каждой итерацией по мере приближения к значению, заданному учителем на выходе. Такой подход удлиняет и совершенствует процесс обучения и в то же время защищает от случайного завершения программы из-за коррекции большого количества весов.

Метод использования параметра α представлен формулой (4), которая описывает изменение весов, используемых в градиентном методе

где: — изменение веса i после итерации t, η — коэффициент изменения значения весов нейронов ( скорость обучения ), – падение градиента, α – поправочный коэффициент веса от предыдущей и текущей итерации.

Процесс обучения сети зависит от правильного использования всех вышеперечисленных алгоритмов и их методов.Чтобы сеть работала правильно, ей нужно предоставить много обучающих данных, при этом используя как можно меньше нейронов и связей между ними, чтобы избежать переобучения.

6.

РЕЗУЛЬТАТЫ ЧИСЛЕННЫХ РАСЧЕТОВ

Обучение нейронной сети требует работы на большом наборе входных данных. Создание такой большой базы изображений занимает чрезвычайно много времени, поэтому на первом этапе работы будет использоваться доступная в сети Интернет база изображений CIFAR-10 (рис. 11), [21].Исследования и моделирование с использованием разработанной программы проводились в среде MATLAB [12]. Он содержит 70 000 изображений размером 32×32 пикселя, отнесенных к 10 основным категориям, на основе которых будет производиться предварительное обучение сети. На первом этапе, после загрузки данных в сеть, они масштабировались, проходя в слое входных данных, который состоит из двух основных частей:

Рисунок 11.

Результат распознавания тестовых изображений с помощью нейронной сети

  • • Масштабирование изображения.Итоговая нейросеть будет адаптирована для распознавания изображений со строго определенным количеством пикселей 256×256, все изображения большего размера будут масштабироваться за счет вырезания несуществующих пиксельных признаков, а изображения меньшего размера будут дополнены гауссовским шумом, состоящим из случайного размещения белого и черного изображений. пикселей, которые даже при увеличении размера файла в 10 раз не оказывают негативного влияния на распознавание характеристик изображения.

  • • Создание зеркальных изображений.Нейронная сеть не способна различать один и тот же объект в разных положениях относительно плоскости, потому что для нее это разные объекты, поэтому при обучении каждый объект должен быть представлен сетями с разных ракурсов и в разных настройках. Эта необходимость возникает из-за того, что сеть сначала ищет самые простые признаки в объекте, который она идентифицирует. Если выучить группу объектов, обращенных вправо, напр. стулья, а затем аналогичная группа предметов, но обращенная только влево, то в процессе проверки сети, отдав ей стул для классификации, обращенный влево, сеть ответит, что это тумбочка — потому что наиболее характерно Особенностью тумбочек будет их возврат к ней.Поэтому необходимо «вращать» предмет в процессе обучения.

После загрузки и обучения изображений в сеть он способен с высокой точностью распознавать объекты на изображениях, присваивая им нужную метку. Сеть сравнивает результат распознавания с реальным изображением и, если результат распознавания правильный, отображает метку над этим изображением зеленым цветом, а в противном случае — красным. Пример того, как работает вышеупомянутое приложение, показан на рисунке 11, [15].

Добавление возможности масштабирования данных позволило использовать ту же базу данных для нейронной сети с несколько иной структурой, адаптированной для распознавания изображений после добавления гауссова шума с целью увеличения количества изображений. Благодаря первоначальному тестированию сети на изображениях с меньшим разрешением, сеть работала быстрее и требовалось гораздо меньше времени для определения ее структуры и выбора подходящего фактора обучения. На этот раз над изображениями отображается процент правильности распознавания, определенный сетью, рис.12.

Рисунок 12.

Результат работы сети

После проверки работы сети в более простых случаях было представлено ее последующее применение, на этот раз в связи с обнаружением объектов. Проверенная структура сети (за исключением изменения количества нейронов в выходном слое на три — за счет трех категорий объектов) осталась неизменной, а база данных, состоящая из 1000 пешеходов, автомобилей и дорожных знаков, была изменена. За обнаружение объектов на изображениях отвечает функция MATLAB rcnnObjectDetector , в нее была загружена искусственная нейронная сеть из предыдущих точек и обучена на новой базе данных [15].

На рисунках 13 и 14 показан результат расчетов, полученных по описанной выше программе для распознавания пешеходов, автомобилей и дорожных знаков на изображении. После завершения процесса обучения сеть правильно обнаруживала и распознавала автомобили, пешеходов и дорожные знаки, рис. 14.

рис. 13.

Результат распознавания транспортных средств и дорожных знаков с использованием нейронной сети

рис. 14.

Результат распознавания пешеходов, транспортных средств и дорожных знаков с помощью нейросети

7.

ЗАКЛЮЧЕНИЕ

Таким образом, представленное выше приложение позволяет распознавать различные объекты на изображениях, применяя алгоритмы машинного обучения для классификации с использованием искусственных нейронных сетей. Нейронная сеть — отличный инструмент для распознавания объектов на изображениях, но она должна помнить о соответствующем выборе своей модели. Чрезвычайно важен также правильный выбор количества и типов слоев, количества нейронов, функций активации и значения коэффициента обучения.Интерфейс компьютерного приложения основан на использовании инструмента Deep Learning Toolbox , позволяющего легко загружать в ранее разработанные нейронные сети, базы данных или выбирать процент данных, которые будут использоваться в процессе обучения сети, распознавания объектов и проверка.

Представленные результаты эксперимента показывают преимущества программного обеспечения, используемого для обработки ИНС. Знание архитектуры нейронной сети позволяет сократить время обучения и распознавать объекты на изображениях в конечной системе в режиме реального времени.Чтобы иметь возможность использовать ИНС для распознавания в реальных системах, необходимо иметь большое количество известных эталонных объектов, которые можно использовать в процессе обучения изображений. Представленная здесь модель распознавания может быть адаптирована к потребностям распознавания любых объектов.

ЛИТЕРАТУРА

Гривачевский А., Прудюс И., Лазько Л. и Фабировский С., «Улучшение качества сегментации мультиспектральных изображений за счет увеличения разрешения», во 2-й Международной конференции по информационно-телекоммуникационным технологиям и радиоэлектронике, УкрМиКо 2017 — Материалы 8095371, (2017).https://doi.org/10.1109/UkrMiCo.2017.8095371 Google Scholar Каневски П., Лесник К., Серафин П. и Лабовски М., «Избранные результаты летных испытаний системы WATSAR», на 17-м Международном радиолокационном симпозиуме IRS 2016, 1 –5 (2016). Google ученый Конатовский С., «Разработка алгоритмов нелинейной фильтрации», Пшеглад Электротехнический, 86 (9), 272 –277 (2010). Google ученый Крашевский Т. и Чопик Г., «Отслеживание движения наземных транспортных средств с использованием измерений расстояний». в проц.SPIE, 11055, XII конференция по системам разведки и радиоэлектронной борьбы, 110550Y https://doi.org/10.1117/12.2524954 Академия Google Крашевский Т. и Чопик Г., «Нелинейная фильтрация Калмана в присутствии аддитивного шума», в проц. SPIE, 10418, XI конференция по системам разведки и радиоэлектронной борьбы, 104180Н (2017). https://doi.org/10.1117/12.2269355 Академия Google Осовский С., Sieci neuronowe do przetwarzania informacji, Oficyna Wydawnicza Politechniki Warszawskiej, Warszawa (2006).Google ученый Петкевич Т., «Метод распознавания морских объектов на основе изображений датчика FLIR (переднего обзора в инфракрасном диапазоне) с использованием динамического искажения времени», в проц. SPIE 10434, Электрооптическое дистанционное зондирование XI, 1043409 (2017). https://doi.org/10.1117/12.2278419 Академия Google Прудюс И., Хривачевский А., «Сегментация изображений на основе кластерного анализа данных мультиспектрального мониторинга», в современных проблемах радиотехники, телекоммуникаций и информатики: Сб.13-й Международной конференции по TCSET 2016, 226 –229 (2016). https://doi.org/10.1109/TCSET.2016.7452020 Академия Google Райковски, А., Алгоритм работы машиностроительного предприятия по открытию объектов на образах, Дипломная практика, WAT, Варшава (2019).

Добавить комментарий

Ваш адрес email не будет опубликован.

Можно использовать следующие HTML-теги и атрибуты:
<a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong> 

© 2019 МКОУ "СОШ с. Псыншоко"