ВВЕДЕНИЕ 5
ГЛАВА 1. АНАЛИЗ СУЩЕСТВУЮЩИХ РЕШЕНИЙ 6
1.1 Анализ применяемых технологий в системах точного земледелия 6
1.1.1. GPS 6
1.1.2. GIS 7
1.1.3. Дистанционное зондирование 8
1.1.4. Variable Rate Technology (VRT) 9
1.1.5. Мониторы урожайности 9
1.2. Анализ основных решений для точного земледелия 9
ГЛАВА 2. КОМПЬЮТЕРНОЕ ЗРЕНИЕ ДЛЯ СИСТЕМ ТОЧНОГО
ЗЕМЛЕДЕЛИЯ 12
2.1. Выбор спектральной полосы 13
2.1.1. Видимый спектр света 12
2.1.2. Коррекция спектра: эффект виньетирования и баланс
белого 17
2.1.3 Инфракрасный спектр 21
2.2 Камера для получения изображения и выбор оптической
системы 23
2.2.1 Камера для получения изображения 23
2.2.2 Оптическая система 24
2.2.3 Выбор фокусного расстояния 26
ГЛАВА 3. ПОДСИСТЕМА РАСПОЗНОВАНИЯ ОБРАЗОВ ДЛЯ СИСТЕМ
ПАРАЛЛЕЛЬНОГО ВОЖДЕНИЯ 27
3.1 Аппаратное и программное обеспечение 27
3.2 Алгоритм работы программы для обнаружения полосы движения и
транспортных средств вокруг 29
3.3 Алгоритм работы программы для обнаружения рядов посевов для
сельскохозяйственной техники 43
ЗАКЛЮЧЕНИЕ 50
СПИСОК ИСПОЛЬЗОВАННЫХ ИСТОЧНИКОВ 51
Приложение
Включение систем машинного зрения в сельскохозяйственную технику набирает всё большую популярность, машинное зрение становится более доступным и находится в стадии роста, особенно на борту сельскохозяйственной техники, независимо от того автономная техника или ещё с механизатором. Системы распознавания образов для сельскохозяйственной техники могут выполнять огромное количество задач, для помощи в сельском хозяйстве. Они выполняют такие задачи как: обнаружение рядов посевов культур, различение сельскохозяйственных культур от сорняков, почвы, камней и мусора, могут помогать водителю более точно соблюдать траекторию вождения, проводить мониторинг зрелости плодов.
Совместно с прогрессом, подсистемы машинного зрения или распознавания образов становятся обязательными в транспортных средствах. Такие модули очень полезны для помощи водителям в неавтономных транспортных средствах как в сельском хозяйстве, так и в обычной жизни. Нужно учитывать тот факт, что системы машинного зрения для сельскохозяйственной техники работают не в самых благоприятных условиях для работы с изображением и иногда могут ошибаться.
Идентификация культур и сорняков, обнаружения рядов посевов на данный момент являются основными задачами в точном земледелии. В настоящее время новые технические достижения позволяют использовать системы компьютерного зрения даже на беспилотных летательных аппаратах, которые также возможно использовать в сельском хозяйстве, и сейчас на это обращено большое внимание [1].
В ходе выполнения выпускной квалификационной работы были исследованы методы компьютерного зрения для систем точного земледелия. Были рассмотрены основные характеристики для систем компьютерного зрения, такие как: выбор нужной спектральной полосы, эффекты виньетирования и баланс белого, рассмотрены нужные характеристики оптической системы.
Был предложен алгоритм распознавания полосы движения при идеальных условиях, таких как нанесённая дорожная разметка, хорошее освещение и малое количество машин. Данный алгоритм имеет свои недостатки, такие как: низкое быстродействие, сильная зависимость от погодных условий.
Также был предложен алгоритм обнаружения рядов посевов для сельскохозяйственной техники. Видеопоток, полученный с камеры в цветовом пространстве red green blue, преобразуется в серое изображение с помощью индекса ExG. После этого преобразования используется двойное пороговое преобразование, которое помогает избавиться на изображении от лишних пикселей. Далее, с помощью метода наименьших квадратов, строится прямая, связанная с линиями посевов.
Цели и задачи поставленные в начале работы достигнуты: подсистема распознавания образов для систем параллельного вождения разработана.
1. Slaughter D.C. Autonomous robotic weed control systems: A review., Comput. Electron. Agric. / Slaughter, D.C.; Giles, D.K.; Downey, D. // 2008, P. 63 - 78.
2. Shalal N. A review of autonomous navigation systems in agricultural environments. In Proceedings of the SEAg 2013: Innovative Agricultural Technologies for a Sustainable Future, Barton, Australia, / Low, T.; McCarthy, C.; Hancock, N. // 22-25 September 2013, Available: http://eprints.usq.edu.au/24779/.
3. Mousazadeh, H. A technical review on navigation systems of agricultural autonomous off-road vehicles / Mousazadeh, H., J. Terramech. // 2013, P. 211-230.
4. Meyer G.E. Verification of color vegetation indices for automated crop imaging applications. / Meyer G.E., Camargo-Neto J. //, 2008 Comput. Electron., P. 293.
5. Zheng, L. Mean-shift-based color segmentation of images containing green vegetation./ Zheng, L., Zhang, J.; Wang, Q. // Comput. Electron. Agric. 2009, P. 93¬98.
6. Wikipedia. Autonomous cars. [Online]. Available:
https://en.wikipedia.org/wiki/ Autonomous car.
7. U. Z. A. Hamid “Current collision mitigation technologies for advanced driver assistance systems Tia survey,” / U. Z. A. Hamid, K. Pushkin, H. Zamzuri, D. Gueraiche, and M. A. A. Rahman // PERINTIS eJournal, vol. 6, no. 2, 2016.
8. O. Miller. Robotic cars and their new crime paradigms. [Online]. Available: https://www.linkedin.com/pulse/ 20140903073835-260074537-robotic-cars-and- their-new-crime-paradigms/
9. BBC News. (2014, Jul.) Uk to allow driverless cars on public roads in january. [Online]. Available: http://www.bbc.com/news/technology-28551069
10. P. T. Mandlik, “A review on lane detection and tracking techniques,” / P. T. Mandlik, // 2016.
11. K. H. Lim “Real-time implementation of vision-based lane detection and tracking,” / K. H. Lim, K. P. Seng, A. C. L. Ngo, and L.-M. Ang, // 2009 International Conference on Intelligent Human-Machine Systems and Cybernetics, vol. 2, pp. 364-367, 2009.
12. X. Du “Vision-based approach towards lane line detection and vehicle localization,” / X.Du K. K. Tan Machine // Vision and Applications, vol. 27, pp. 175-191, 2015.
13. Q.-B. Truong “New lane detection algorithm for autonomous vehicles using computer vision,” / Q.-B. Truong, B. R. Lee // 2008 International Conference on Control, Automation and Systems, pp. 1208-1213, 2008.
14. A. Assidiq “Real time lane detection for autonomous vehicles,” / A. Assidiq, O. O. Khalifa, R. Islam, S. Khan,// 2008 International Conference on Computer and Communication Engineering, pp. 82-88, 2008.
15. I. Sobel, “An isotropic 3* 3 image gradient operator,” Machine vision for threedimensional scenes, / I. Sobel // pp. 376-379, 1990.
16. Asif, M. A vision system for autonomous weed detection robot. / Asif, M., Amir, S., Israr, A., & Faraz, M. // 2009 Int. J. Comput. Electr. Eng., 2(3), pp. 486¬491.
17. Billingsley, J. The successful development of a vision guidance system for agriculture. / Billingsley, J., Schoenfisch, M // Computers and Electronics in Agriculture, 16, pp.147-163.
18. Montalvo, M. Automatic detection of crop rows in maize fields with high weeds pressure. / Montalvo, M.; Pajares, G.; Guerrero, J.M.; Romeo, J.; Guijarro, M.; Ribeiro, A.; Ruz, J.J.; de la Cruz, J.M.// Exp. Syst. Appl. 2012, 39, pp 583.
19. Burgos-Artizzu, Improving weed pressure a ssessmentusing digital images from an experience-based reason in gap roach. / Burgos-Artizzu, X.P.; Ribeiro, A.; Tellaeche, A.; Pajares, G.; Fernandez-Quintanilla, C. // Comput.Electron.Agric. 2009, 65, pp. 176-185.
20. Jones, G. Assessment of an inter-row weed infestation rate on simulated agronomic images. / Jones, G.; Gee, Ch.; Truchetet, F. // Comput. Electron. Agric. 2009, pp. 67.
21. Xue, J. Variable field-of-view machine vision based row guidance of an agricultural robot. / Zhang, L.; Grift, T.E. // Comput. Electron. Agric. 2012, 84, pp. 85-91.
22. Dworak, V. Precise navigation of small agricultural robots in sensitive areas with a smart plant camera. / Dworak, V.; Huebner, M.; Selbeck, J. // J. Imaging
2015, pp. 115-133.
23. Moshou, D. Intelligent multi-sensor system for the detection and treatment of fungal diseases in arable crops / Moshou, D.; Bravo, D.; Oberti, R.; West, J.S.; Ramon, H.; Vougioukas, S.; Bochtis, D. // 2018, pp. 354.
24. Point Grey Innovation and Imaging. Selecting a lens for Your Camera. Available online: https://www. ptgrey.com/KB/10694.
25. Vazquez-Arellano, M. 3-D imaging systems for agricultural applications-a review. / Vazquez-Arellano, M.; Griepentrog, H.W.; Reiser, D.; Paraforos, D.S. //
2016, pp. 618.
26. Linker, R. Determination of the number of green apples in RGB images recorded in orchard. / Linker, R.; Cohen, O.; Naor, A// Comput. Electron. Agric. 2012, 81, pp.45-57.
27. Blas, M.R. Stereo vision with texture learning for fault-tolerant automatic baling. / Blas, M.R.; Blanke, M. //Comput. Electron. Agric. 2011, pp. 168.
28. Rong, X. Recognition of clustered tomatoes based on binocular stereo vision. / Rong, X.; Huanyu, J.; Yibin, Y. //Comput. Electron. Agric. 2014, pp. 106.
29. Pajares, G. On combining support vector machines and simulated annealing in stereovision matching. / Pajares, G.; de la Cruz, J.M. //IEEE Trans. Syst. Man Cybern. Part B 2004, pp. 1657.
30. Guerrero, J.M. G. Automatic expert system based on images for accuracy crop row detection in maize fields. / Guerrero, J.M.; Guijarro, M.; Montalvo, M.; Romeo, J.; Emmi, L.; Ribeiro, A.; Pajares, // Exp. Syst. Appl. 2013, pp.664.