ВВЕДЕНИЕ 3
1. СРАВНИТЕЛЬНЫЙ АНАЛИЗ МЕТОДОВ АДАПТИВНОГО
ТЕСТИРОВАНИЯ 5
1.1. МОДЕЛЬ АДАПТИВНОГО ТЕСТИРОВАНИЯ НА ОСНОВЕ
КОНЕЧНЫХ АВТОМАТОВ 5
1.2. НЕЧЕТКИЕ МНОЖЕСТВА 6
1.3. СОВРЕМЕННАЯ ТЕОРИЯ ТЕСТИРОВАНИЯ КАК ОСНОВНОЙ
МЕТОД РЕАЛИЗАЦИИ АДАПТИВНЫХ ТЕСТОВ 8
1.3.1. ОДНОПАРАМЕТРИЧЕСКАЯ МОДЕЛЬ РАША 9
1.3.2. ДВУХПАРАМЕТРИЧЕСКАЯ МОДЕЛЬ БИРНБАУМА 11
1.3.3. ТРЕХПАРАМЕТРИЧЕСКАЯ МОДЕЛЬ БИРНБАУМА 13
1.3.4.ОГРАНИЧЕНИЯ ПРИ РЕАЛИЗАЦИИ ITEM RESPONSE THEORY 14
2. СИСТЕМЫ АДАПТИВНОГО ТЕСТИРОВАНИЯ. АНАЛОГИ 16
3. РАЗРАБОТКА КОНЦЕПЦИИ МЕХАНИЗМА ПОДДЕРЖКИ
АДАПТИВНОГО ТЕСТИРОВАНИЯ 18
3.1. ОПИСАНИЕ СИСТЕМЫ 18
3.2. ГЕНЕРАЦИЯ БАНКА ЗАДАНИЙ 21
3.3. НАКОПЛЕНИЕ ОПЫТА ДЛЯ ОЦЕНКИ ПАРАМЕТРОВ ЗАДАНИЙ . 26
3.4. РЕАЛИЗАЦИЯ СЕРВИСА АДАПТИВНОГО ТЕСТИРОВАНИЯ 28
4. РАБОТА СЕРВИСОВ С ТЕСТОВЫМИ ДАННЫМИ 31
ЗАКЛЮЧЕНИЕ 32
ЛИТЕРАТУРА
ПРИЛОЖЕНИЕ
В настоящее время для оценки уровня знаний обучающихся наиболее широко применяется классическая теория тестирования - метод тестирования, при котором конечный балл испытуемого зависит от количества правильных ответов и общего числа заданий. В ряде работ [1-4] отмечается ее ограниченность. Такие показатели, как сложность вопроса и уровень подготовленности испытуемого, игнорируются при тестировании, что приводит к менее точному результату. В случае, когда действительный уровень знаний испытуемого не соответствует степени сложности теста, невозможно достоверно определить уровень подготовленности испытуемого [1].
Данную проблему решает компьютерное адаптивное тестирование (CAT - Computer Adaptive Testing). В процессе проверки уровня знаний с помощью компьютерных адаптивных тестов для испытуемого каждый следующий вопрос подбирается на основе его ответов на предыдущие вопросы [5, 6].
Уже несколько десятилетий разрабатывается и внедряется современная теория тестирования (Item Response Theory, IRT) [2] для реализации компьютерного адаптивного тестирования [7], представляющая собой набор методов, который позволяет оценить вероятность правильного ответа испытуемого на задания определенной трудности. В США в некоторых системах тестирования, таких как GRE (Graduate Record Examination) [8] и TOEFL (тест по английскому языку как иностранному) [9], современная теория тестирования используется для оценки уровня знаний студентов [3].
В процессе изучения работ [3, 4, 10] были выявлены причины, по которым не осуществляется широкое внедрение методов адаптивного тестирования в сферу образования. Основная проблема заключается в том, что создание и поддержка адаптивных тестов - процесс более сложный и затратный, чем случае с классическими тестами, и включает в себя следующие задачи [4]:
• Создание большого количество заданий для одного теста (как правило, более 1000). Поскольку в процессе тестирования из пула - набора заданий
для тестов - выбираются вопросы, которые соответствуют определенному уровню знаний, их должно быть как можно больше для обеспечения соответствующей точности измерений;
• При добавлении новых заданий (также как и для имеющихся) требуется калибровка - процесс оценки сложности заданий и совершенствования точности такой оценки [10];
• Задания, которые слабо влияют на результат, должны по мере идентификации регулярно удаляться из банка заданий, поскольку они могут привести к ошибкам в оценке знаний испытуемых.
Цель данной работы - разработка информационной системы, которая решает вышеупомянутые проблемы и упрощает внедрение адаптивного тестирования в сферу образования.
В последующих главах будут рассмотрены методы генерации тестовых заданий, а также разработанные сервис, реализующий классическое тестирование для сбора данных, и сервис для создания адаптивных тестов на основе полученных данных и полученного банка заданий.
Были проанализированы основные методы адаптивного тестирования, в том числе современная теория тестирования (Item Response Theory) и ее преимущество перед другими подходами. Были рассмотрены основные сложности при ее реализации и предложено возможное решение.
В рамках работы были проанализированы аналоги - приложения для создания тестов на основе Item Response Theory. Были выявлены недостатки данных систем с целью их последующей ликвидации.
В ходе разработки программных средств поддержки адаптивного тестирования в парадигме Item Response Theory были решены следующие задачи:
• разработана микросервисная архитектура системы для возможности последующего использования сервисов в рамках других систем;
• разработан сервис генерации банка заданий для обеспечения их необходимого количества для создания тестов с высокой точностью;
• разработан сервис классического тестирования с целью накопления опыта для вычисления параметров заданий, используемых в Item Response Theory;
• разработан сервис, реализующий Item Response Theory, который предоставляет возможность для создания и прохождения адаптивных тестов.
Все сервисы предоставляют API и реализуют протокол REST.
Результаты данной работы были представлены на конференции “Электронная Казань 2019” и опубликованы в статье [53]. Работа доступна в открытом доступе по ссылке http://gititis.kpfu.ru/Nurullina/adaptive-testing-system.
1. Карданова Е.Ю. Преимущества современной теории тестирования по сравнению с классической теорией тестирования / Е.Ю. Карданова // Вопросы тестирования в образовании. - 2004. - №10. - С. 7-34.
2. Kimura T. The impacts of computer adaptive testing from a variety of perspectives / T. Kimura // Journal of educational evaluation for health professions. - 2017. - Т. 14.
3. Binh H. T. Student ability estimation based on IRT / H. T. Binh, B. T. Duy // 3rd National Foundation for Science and Technology Development Conference on Information and Computer Science (NICS). - 2016. - P. 56-61.
4. Wise, S. L. Practical issues in developing and maintaining a computerized adaptive testing program / S. L. Wise, G. G. Kingsbury // Psicologica. - 2000. - Vol. 21, №. 1. P. 135-155.
5. Cechova I., Neubauer J., Sedlacik M. Computer-adaptive testing: item analysis and statistics for effective testing /I. Cechova, J. Neubauer, M. Sedlacik // European Conference on e-Learning. - Academic Conferences International Limited. - 2014. - P. 106.
6. Papanastasiou E. Computer-adaptive testing in science education / E. Papanastasiou // Proceedings of the 6th International Conference on Computer Based Learning in Science. - Nicosia, Cyprus. - 2003. - P. 965-971.
7. International Association for Computerized Adaptive Testing [Электронный ресурс]. - Режим доступа : http://iacat.org, свободный. - Загл. с экрана.
8. Официальный сайт GRE [Электронный ресурс]. - Режим доступа : http://www.gre.org, свободный. - Загл. с экрана.
9. Официальный сайт TOEFL [Электронный ресурс]. - Режим доступа : http://www.toefl.org, свободный. - Загл. с экрана.
10. Kingsbury G. G. Adaptive item calibration: A process for estimating item parameters within a computerized adaptive test / G.G. Kingsbury // Proceedings of the 2009 GMAC conference on computerized adaptive testing. - 2009.
11. Абрамский, М. М. Архитектура обучающих приложений с достоверной оценкой знаний и визуальным проектированием сценариев тестирования в концепции Microleaming / M. М. Абрамский, Москиева А. Р., Нигматуллина Р. Р. // Электронные библиотеки. - 2018. - Т. 21. - №3-4. - С. 288-300.
12. Хопкрофт Д., Мотвани Р., Ульман Д. Введение в теорию автоматов, языков и вычислений, 2-е изд. : Пер. с англ. — М.:Издательский дом «Вильямс»,
2002. — С. 61.
13. Сайт Google Forms [Электронный ресурс]. - Режим доступа : https://www.google.ru/intl/ru/forms/about/, свободный. - Загл. с экрана.
14.Suarez-Cansino J.= A. Adaptive testing system modeled through fuzzy logic / J. Suarez-Cansino, R. A. Hernandez-Gomez // Modern Topics of Computer Science. - 2008. - P. 85-89.
15. Ризун Н. О.. Использование теории нечетких множеств для идентификации степени сложности темы в системах компьютерного тестирования знаний / Н.О. Ризун // Схщно-Свропейський журнал передових технологи. - 2009. - №. 6/2. - С. 42.
16. Паклин, Н. , Нечеткая логика — математические основы [Электронный ресурс] / Николай Паклин // BaseGroup Labs. - 2019. - BaseGroup Labs ООО «Аналитические технологии», 2019 - . - Режим доступа : https://basegroup.ru/community/articles/fuzzylogic-math#, свободный. - - Загл. с экрана.
17. Середа Е.С. Система компьютерного адаптивного тестирования на основе
методики, построенной на аппарате нечеткой логики и экспертных оценок / Е.С. Середа // Молодежный научный форум: Технические и
математические науки: электр. сб. ст. по мат. XIII междунар. студ. науч.- практ. конф. № 6(13).
18. Дуплик С. В. Модель адаптивного тестирования на нечеткой математике / С.В. Дуплик // Информатика и образование. - 2004 г. - N 11. - С. 57-65.
19.Sineglazov, V. M. Adaptive testing system based on the fuzzy logic. / V. M. Sineglazov, A. V. Kusyk // Electronics and Control Systems. - July, 2018.
20. Кострыкин И.В. Нечеткая логика: достоинства и недостатки / И.В. Кострыкин // Материалы научно-практической конференции «Информационные технологии в образовании. (ИТО-Черноземье - 2008)» - 2008 Курск. - С. 117-120.
21. Vega, Y. L. P. Application of item response theory (IRT) for the generation of adaptive assessments in an introductory course on object-oriented programming / Y. L. P. Vega, J. C. G. Bolanos, G. M. F. Nieto and S. M. Baldiris // Frontiers in Education Conference Proceedings. - 2012 Seattle, WA, 2012, P. 1-4.
22. Ким В.С. Тестирование учебных достижений. Монография. Уссурийск: Издательство УГПИ, 2007. 215 с.
23. Jill-Jenn Vie. A Review of Recent Advances in Adaptive Assessment. Learning Analytics: Fundaments, Applications, and Trends. / Jill-Jenn Vie, Fabrice Popineau, Eric Bruillard, Yolaine Bourda // Springer International Publishing. - 2017. - P.113-142
24. Partchev, I. A visual guide to item response theory [Электронный ресурс] / I. Partchev. - Jena. : Friedrich-Schiller-Universitat Jena, 2004. - Режим доступа : https://www.metheval.uni-jena.de/irt/VisualIRT.pdf, свободный. - Загл. с экрана.
25. Rudner, Lawrence M.. An On-line, Interactive, Computer Adaptive Testing Tutorial [Электронный ресурс] / Lawrence M. Rudner. - 1998. - Режим доступа : http://echo.edres.org:8080/scripts/cat/catdemo.htm, свободный. - Загл. с экрана.
26. An X. Item response theory: What it is and how you can use the IRT procedure to apply it / X. An, Y. F. Yung // SAS Institute Inc. - 2014
27. Assessment Systems Corporation:
Thompson, N. Ability estimation with item response theory [Electronic resource] / N. Thompson // Assessment Systems Corporation, 2009 - . -Режим
доступа: https://www.assess.com/docs/Thompson (2009) -
Ability estimation with IRT.pdf - Загл. с экрана.
28. Cappelleri, J. C. Overview of classical test theory and item response theory for the quantitative assessment of items in developing patient-reported outcomes measures / J. C. Cappelleri, J. J. Lundy, R. D. Hays // Clinical therapeutics. - 2014. - Т. 36. - №. 5. - P. 648-662.
29. Reckase, M. D. Designing item pools to optimize the functioning of a computerized adaptive test / M.D. Reckase // Psychological Test and Assessment Modeling. - 2010. - Vol. 52, №. 2. - P. 127. university of technology; Eindhoven, 2011. - С. 121-127.
30. Estimating Item Parameters from Classical Indices for Item Pool Development with a Computerized Classification Test / C. Y. Huang [et al.] // ACT Research Report Series. - 2000.
31. Concerto Platform [Электронный ресурс]. - Режим доступа : https://www.google.ru/intl/ru/forms/about/, свободный. - Загл. с экрана.
32.SIETTE: A web-based tool for adaptive testing / R. Conejo [et al.] // International Journal of Artificial Intelligence in Education. - 2004. - Vol. 14,.
- P. 29-61.
33. Microservices: yesterday, today, and tomorrow / N. Dragoni [et al.] // Present and ulterior software engineering. - Springer, Cham, 2017. - С. 195-216.
34. Fowler, M. Continuous integration / M. Fowler, M. Foemmel // Thought-Works.
- 2006. - Vol. 122. - P. 14.
35. Docker, M. D. Lightweight linux containers for consistent development and deployment / M. D. Docker // Linux Journal. - 2014. - №. 239. - P. 2.
36.Self-reconfiguring microservices / M. Gabbrielli [et al.] // Theory and Practice of Formal Methods. - Springer, Cham, 2016. - P. 194-210.
37.Spring, C. J. Microservices in Action / C. J. Spring. - Manning Publications Co., 2017. - 251 p.