Một mô hình ứng dụng công nghệ UAV và trí tuệ nhân tạo phục vụ chỉ huy và hỗ trợ ứng cứu tại hiện trường

Một mô hình ứng dụng công nghệ UAV và trí tuệ nhân tạo phục vụ chỉ huy và hỗ trợ ứng cứu tại hiện trường

Lời tòa soạn: Trong kỷ nguyên Cách mạng công nghiệp 4.0, việc ứng dụng công nghệ cao vào quản lý và ứng phó tình huống khẩn cấp trở thành yêu cầu tất yếu. Tạp chí Điện tử và Ứng dụng trân trọng giới thiệu Bài báo "Một mô hình ứng dụng công nghệ UAV và trí tuệ nhân tạo phục vụ chỉ huy và hỗ trợ ứng cứu tại hiện trường" do nhóm tác giả Đỗ Trọng Tuấn, Lương Tuấn Hải, Hồ Xuân Hải, Nguyễn Đình Duy trình bày tại Hội nghị REV-ECIT 2024, đề xuất giải pháp tiên tiến kết hợp UAV và AI nhằm tối ưu hóa thu thập dữ liệu, phân tích tình huống và ra quyết định trong ứng cứu.

Tóm tắt: Trong ngữ cảnh ở các vùng có địa hình phức tạp hoặc bị chia cắt, công tác tìm kiếm cứu nạn thường chịu nhiều rủi ro và trở ngại. Phương tiện tìm kiếm cứu nạn truyền thống như thuyền, ô tô không thể tiếp cận kịp thời các vị trí này, dẫn đến sự chậm trễ và thiếu hiệu quả. Bài viết này giới thiệu giải pháp tích hợp UAV và trí tuệ nhân tạo (AI), sử dụng UAV để thu thập dữ liệu từ xa và AI để phân tích, nhằm cải thiện đáng kể khả năng tiếp cận và hiệu quả tìm kiểm cứu nạn. Ngoài ra, việc thu thập dữ liệu hỗ trợ rất lớn trong việc xây dựng bản đồ địa lý địa phương, từ đó giúp xác định được các mục tiêu và phương hướng tiếp cận hiệu quả trong công tác tìm kiếm cứu nạn. Hệ thống này không chỉ vượt qua được các hạn chế về địa hình mà còn nâng cao tốc độ và độ chính xác trong ứng cứu, từ đó đảm bảo an toàn cho nhân viên và hiệu quả công tác tìm kiếm cứu nạn. Thử nghiệm thực tế đã chứng minh sự hiệu quả của mô hình này, mở ra khả năng ứng dụng rộng rãi trong quản lý rủi ro, giám sát môi trường và cứu trợ thảm họa.

I. GIỚI THIỆU

Việt Nam là một trong những quốc gia chịu ảnh hưởng nặng nề do sự biến đổi khí hậu, với thiên tai diễn biến ngày càng bất thường và cực đoan. Việc tiếp cận kịp thời để tìm kiếm cứu nạn tại các khu vực địa hình hiểm trở như núi cao hay vùng ngập lụt trở nên cực kỳ khó khăn. Trong những năm gần đây, thiên tai như bão và lũ lụt tại Việt Nam ngày càng trở nên khó dự đoán, gây ra nhiều thiệt hại nghiêm trọng về người và tài sản. Điển hình là cơn bão Yagi [1] gần đây đã tàn phá nhiều vùng nông thôn, gây ngập lụt nghiêm trọng và chia cắt đường giao thông, khiến các phương tiện tìm kiếm cứu nạn truyền thống như ô tô và thuyền không thể tiếp cận kịp thời, làm gia tăng thiệt hại về người và tài sản. Các phương tiện tìm kiếm cứu nạn hiện tại không đáp ứng được tính khẩn cấp và linh hoạt cần thiết cho những tình huống này. Do đó, việc ứng dụng công nghệ UAV kết hợp với trí tuệ nhân tạo (AI) là một giải pháp đột phá, cho phép tiếp cận dễ dàng hơn với những khu vực bị cô lập, đồng thời đảm bảo an toàn và hiệu quả trong công tác tìm kiếm cứu nạn. Nghiên cứu này tập trung vào việc phát triển một hệ thống UAV với khả năng thu thập và xử lý thông tin theo thời gian thực, giúp nâng cao độ chính xác và tốc độ phản ứng trong các hoạt động tìm kiếm và cứu nạn.

Một mô hình ứng dụng công nghệ UAV và trí tuệ nhân tạo phục vụ chỉ huy và hỗ trợ ứng cứu tại hiện trường
Hình 1. Hình ảnh vùng lũ tại thôn Tân Tiến - Bắc Ninh

Phần còn lại của bài báo được tổ chức như sau. Trong phần II chúng tôi trình bày cái nhìn tổng quan về hệ thống triển khai tại hiện trường. Các phần III, IV. V, VI sẽ trình bày chi tiết các thành phần cấu thành hệ thống. Kế tiếp ở phần VII trình bày kết quả triển khai hệ thống trong thực tế với từng thành phần chi tiết. Cuối cùng, chúng tôi kết luận bài báo trong phần VIII.

II. MÔ HÌNH HỆ THỐNG

Hệ thống UAV tích hợp trạm mặt đất được thiết kế nhằm cung cấp khả năng giám sát từ xa và điều khiển linh hoạt trong các hoạt động tìm kiếm cứu nạn. Cấu trúc của hệ thống bao gồm hai thành phần chính: UAV và trạm điều khiển mặt đất, được kết nối qua một mạng truyền dẫn không dây. UAV quan trắc địa hình đảm nhiệm việc thu thập thông tin từ hiện trường, bao gồm hình ảnh, video và các thông số môi trường tại những khu vực có địa hình phức tạp hoặc nguy hiểm. Những dữ liệu này giúp xây dựng các bản đồ chi tiết và hỗ trợ giám sát từ trên cao.

Một mô hình ứng dụng công nghệ UAV và trí tuệ nhân tạo phục vụ chỉ huy và hỗ trợ ứng cứu tại hiện trường
Hình 2. Tổng quan mô hình hệ thống tìm kiếm cứu nạn

Dữ liệu từ UAV được truyền về trạm điều khiển mặt đất bằng mạng nội bộ, nhằm đảm bảo đường truyền ổn định. Khi triển khai hệ thống ra ngoài thực địa, UAV sẽ được triển khai quy trình để đảm bảo an toàn bay. Sau khi xác định được độ cao an toàn, UAV sẽ được thiết lập để bay tự động theo quỹ đạo, cùng với đó là xác định các điểm tối ưu trên lộ trình bay để thu thập dữ liệu và gửi về trung tâm

III. CƠ CHẾ TRUYỀN THÔNG

Để thu thập và xử lý thông tin thời gian thực hiệu quả, hệ thống truyền thông cần được tối ưu hóa để giảm độ trễ và đảm bảo truyền dữ liệu liên tục từ UAV về trung tâm xử lý. Hệ thống này hoạt động trên mạng nội bộ với dải địa chỉ IP 192.168.5.0/24, và việc quản lý chặt chẽ các địa chỉ mạng giúp cải thiện hiệu quả truyền dữ liệu, hỗ trợ các ứng dụng đòi hỏi độ trễ thấp như xử lý thông tin cứu hộ như trong Hình 3.

Hệ thống truyền thông này được chia thành bốn khối chính:

Một mô hình ứng dụng công nghệ UAV và trí tuệ nhân tạo phục vụ chỉ huy và hỗ trợ ứng cứu tại hiện trường
Hình 3. Mô hình luồng dữ liệu trong hệ thống

Khối trung tâm kiểm soát UAV: Tại đây, tín hiệu điều khiển được gửi đến UAV thông qua giao thức có độ tin cậy cao, cho phép điều khiển thủ công hoặc tự động bay theo quỹ đạo đã định.

Khối trung tâm kiểm sát di động: Tại đây, các luồng video từ UAV được truyền về và xử lý ngay tại hiện trường. Dữ liệu sau đó được lưu trữ và quản lý thông qua hệ thống quản lý băng thông và luồng dữ liệu.

Server xử lý dữ liệu: Server này xử lý dữ liệu từ UAV, bao gồm nhận diện nạn nhân và tạo ra bản đồ thực địa. Dữ liệu sau khi xử lý sẽ được gửi về trung tâm điều khiển để hỗ trợ ra quyết định.

UAV: Là thiết bị thu thập dữ liệu chính, bao gồm video và dữ liệu hình ảnh của hiện trường, được truyền về trung tâm kiểm soát qua các giao thức thời gian thực.

Việc truyền dữ liệu từ UAV đến server xử lý cần đạt độ trễ thấp nhất để hỗ trợ phân tích và xử lý AI một cách nhanh chóng, điều này rất quan trọng trong các nhiệm vụ cứu hộ khi thông tin cần được cập nhật thường xuyên và chính xác. Để đảm bảo sự thông suốt trong quá trình truyền tin, các biện pháp sau có thể được áp dụng:

Sử dụng giao thức UDP

Giao thức UDP (User Datagram Protocol) là lựa chọn lý tưởng cho các ứng dụng yêu cầu truyền tải thời gian thực như video từ UAV [2]. Giao thức này không yêu cầu xác nhận gói tin, từ đó giảm thiểu độ trễ. Tuy nhiên, tỷ lệ lỗi gói tin cần được đánh giá kỹ, nhất là trong môi trường phức tạp để bảo đảm chất lượng truyền dẫn ổn định.

Quản lý băng thông và QoS

Để luồng video từ UAV không bị gián đoạn, hệ thống cần triển khai Quản lý chất lượng dịch vụ (QoS)[3], cho phép ưu tiên các gói tin quan trọng, giảm thiểu độ trễ truyền tải. Định hình băng thông cũng cần được thực hiện để duy trì dữ liệu liên tục, ngay cả trong tình trạng nghẽn mạng.

Cấu hình mạng với địa chỉ IP tĩnh

Hệ thống sử dụng dải địa chỉ IP tĩnh 192.168.5.0/24 để quản lý mạng nội bộ hiệu quả, giúp các thiết bị giao tiếp nhanh chóng, tránh xung đột địa chỉ và giảm thời gian xử lý yêu cầu kết nối.

IV. CÔNG NGHỆ VẼ BẢN ĐỒ

Phương pháp lấy dữ liệu

Việc chuẩn bị phương pháp tôi ưu trong quá trình lấy dữ liệu có thể tiết kiệm rất nhiều thời gian trong quá trình xây dựng bản đồ và tối ưu hóa dữ liệu. Hình 4 là quỹ đạo đươc xây dựng với 28 điểm lấy dữ liệu chính.

Một mô hình ứng dụng công nghệ UAV và trí tuệ nhân tạo phục vụ chỉ huy và hỗ trợ ứng cứu tại hiện trường
Hình 4. Tạo lộ trình bay và lấy dữ liệu

Thuật toán vẽ bản đồ

Để nhanh chóng tạo ra bản đồ chi tiết của khu vực bị ảnh hưởng bởi thiên tai, chúng tôi sử dụng công nghệ Photogrammetry (Quang trắc) [4] để tái tạo không gian từ các ảnh chụp bằng UAV (drone). Công nghệ này cho phép xây dựng các mô hình không gian 3D và bản đồ 2D chính xác, bằng cách so sánh các điểm chung (key points) giữa nhiều ảnh chụp từ các góc độ khác nhau. Quá trình tái tạo yêu cầu độ chồng lấn giữa các ảnh khoảng 60-80% để đảm bảo đủ thông tin cần thiết cho việc xây dựng mô hình.

Hình 5 biểu diễn luồng dữ liệu trong quá trình xử lý ảnh UAV để tạo bản đồ. Các bước cơ bản bao gồm:

Một mô hình ứng dụng công nghệ UAV và trí tuệ nhân tạo phục vụ chỉ huy và hỗ trợ ứng cứu tại hiện trường
Hình 5. Mô hình hóa luồng dữ liệu thuật toán vẽ bản đồ
  • Dữ liệu ảnh từ UAV: Các hình ảnh được thu thập bằng UAV cùng với thông tin GPS.
  • Lọc ảnh: Các hình ảnh được lọc để loại bỏ nhiễu và hình ảnh không đạt yêu cầu.
  • Trích xuất thông tin GPS: Sử dụng dữ liệu GPS từ ảnh để xác định vị trí chính xác.
  • Tìm kiếm điểm chung: Các thuật toán tìm các điểm chung giữa các ảnh.
  • Kết nối điểm chung: Sau khi xác định các điểm chung, hệ thống xây dựng đám mây điểm (point cloud) mô tả địa hình 3D.
  • Ghép ảnh và tạo mô hình: Dựa trên đám mây điểm, hệ thống tiếp tục ghép nối và tạo ra mô hình lưới (mesh) cùng với kết cấu (texture) để tái hiện chi tiết bề mặt.

Quá trình xử lý này cho ra ba loại bản đồ chính:

  1. Bản đồ 2D (Orthomosaic): Một hình ảnh ghép từ các ảnh UAV, với độ sắc nét cao và thể hiện chi tiết khu vực.
  2. Mô hình 3D: Một mô hình ba chiều giúp quan sát địa hình từ nhiều góc độ.
  3. Bản đồ địa hình (DSM - Digital Surface Model): Biểu đồ độ cao giúp đánh giá thay đổi địa hình.

V. MÔ HÌNH PHÁT HIỆN ĐỐI TƯỢNG

Nghiên cứu này áp dụng mô hình phát hiện đối tượng tiên tiến YOLOv10[5] để phát triển một giải pháp mạnh mẽ, đáp ứng yêu cầu về tốc độ và độ chính xác trong các tình huống thời gian thực như cứu hộ. YOLOv10 thực hiện việc xác định và khoanh vùng đối tượng trong một bức ảnh rộng, chia ảnh thành một lưới và quét toàn bộ hình ảnh chỉ trong một lần, từ đó dự đoán các khung chứa và loại đối tượng tại từng ô lưới. Hình 6 minh họa chi tiết kiến trúc của mô hình này. YOLOv10 được lựa chọn thay vì các phiên bản YOLO trước đó bởi vì những ưu điểm phù hợp với ngữ cảnh cứu hộ cứu nạn. Mô hình sử dụng kiến trúc CNN tối ưu để trích xuất các đặc trưng quan trọng như hình dạng và kích thước đối tượng, đồng thời tính toán độ tin cậy của các khung chứa. Đặc biệt, YOLOv10 đã loại bỏ thuật toán NonMaximum Suppression (NMS) truyền thống, thay vào đó là chiến lược gán nhãn kép với hai nhánh gán nhãn: một-nhiều và một-một. Điều này giúp loại bỏ sự cần thiết của NMS, giảm độ trễ suy luận mà vẫn đảm bảo tính chính xác cao.

Một mô hình ứng dụng công nghệ UAV và trí tuệ nhân tạo phục vụ chỉ huy và hỗ trợ ứng cứu tại hiện trường
Hình 6. Kiến trúc mô hình YOLOv10

Hơn nữa, YOLOv10 không chỉ cải thiện về tốc độ suy luận mà còn nâng cao hiệu suất tính toán so với các phiên bản trước, giúp mô hình có khả năng xử lý và nhận diện đối tượng trong thời gian thực. Điều này đặc biệt quan trọng đối với các ứng dụng giám sát và cứu hộ, nơi yêu cầu về tốc độ và độ chính xác là yếu tố quyết định. Kiến trúc tối ưu hóa và thiết kế nhẹ của YOLOv10 giúp nó trở thành giải pháp lý tưởng cho các hoạt động giám sát, cứu hộ và nhiều ứng dụng đòi hỏi thời gian thực khác.

VI. CƠ CHẾ ĐỊNH VỊ ĐỐI TƯỢNG

Mục đích của cuối cùng của nhiệm vụ cứu hộ đó là tìm kiếm và định vị nạn nhân trong môi trường nguy hiểm. Những dữ liệu thu thập về từ UAV được sử dụng để tính toán vị trí chính xác của nạn nhân trong môi trường để thúc đẩy việc tìm kiếm diễn ra nhanh hơn. Công thức dưới đây được trích dẫn từ bài báo [1], với công thức này ta có thể dựa vào giá trị GPS của bức ảnh hiện tại và góc quay của thành phần camera trên UAV để xác định vị trí chính xác của nạn nhân trong môi trường.

Một mô hình ứng dụng công nghệ UAV và trí tuệ nhân tạo phục vụ chỉ huy và hỗ trợ ứng cứu tại hiện trường
Một mô hình ứng dụng công nghệ UAV và trí tuệ nhân tạo phục vụ chỉ huy và hỗ trợ ứng cứu tại hiện trường
Hình 7. Mô hình mô phỏng vị trí và góc nhìn của UAV trong không gian tọa độ
Một mô hình ứng dụng công nghệ UAV và trí tuệ nhân tạo phục vụ chỉ huy và hỗ trợ ứng cứu tại hiện trường

Từ 2 công thức trên, ta có thể tính được khoảng cách từ drone đến nạn nhân và suy được ra vị trí chính xác của nạn nhân. Chúng tôi đã thực nghiệm và tính toán trong hàng chục bài kiểm thử, kết quả cho thấy rằng mức độ sai số của đầu ra cuối cùng chỉ lệch so với thực tế là 3 mét. Với kết quả và sai số này, chúng tôi thấy rằng công trình nghiên cứu này hoàn toàn phù hợp đối với ngữ cảnh cứu hộ cứu nạn.

VII. KẾT QUẢ TRIỂN KHAI

Trong phần này, chúng tôi sẽ trình bày kết quả thực nghiệm hệ thống cứu hộ cứu nạn. Hệ thống được triển khai tại 2 vùng chịu ảnh hướng ngập lụt do hoàn lưu của bão Yagi là thôn Tân Tiến, huyện Yên Phong và thôn Diên Lộc, huyện Gia Bình thuộc tỉnh Bắc Ninh. Trước khi trình bày chi tiết kết quả, kịch bản ứng dụng được triển khai tại thực địa như sau:

  • Sau khi nhận được chỉ thị từ chính quyền địa phương, chúng tôi đã lập kế hoạch khảo sát nhằm xác định chính xác vị trí những người cần hỗ trợ do lũ lụt.
  • Kế hoạch này bao gồm việc xác định khu vực cần đánh giá và thiết lập lộ trình bay tự động cho các phương tiện bay không người lái (UAV).
  • Trong quá trình bay theo lộ trình định sẵn, UAV liên tục gửi dữ liệu về trạm điều khiển mặt đất, nơi hệ thống máy chủ xử lý dữ liệu theo thời gian thực để phát hiện và xác định vị trí của những người cần cứu hộ.
  • Sau khi hoàn tất việc lập bản đồ khu vực, UAV sẽ tạo ra bản đồ hình ảnh, đánh dấu vị trí của các cá nhân cần hỗ trợ trực tiếp trên bản đồ hiện tại.
  • Cuối cùng, một UAV khác sẽ tự động bay đến các vị trí đã đánh dấu để thả hàng tiếp tế cho những người bị ảnh hưởng.

Kết quả của hệ thống được xử lý và tính toán trên máy tính trang bị card đồ họa NVIDIA RTX 2060 SUPER, CPU Intel i5-12400F, cùng với bộ định tuyến MikroTik RB750GR3 và TP-Link CPE210 V3. Để thực hiện các khảo sát thực địa, chúng tôi đã sử dụng máy bay không người lái DJI Mini 3, giúp dễ dàng điều khiển và truy xuất dữ liệu hiệu quả.

A. Đánh giá hiệu quả và hiệu suất truyền thông trong hệ thống

Hệ thống này đã được thử nghiệm nhiều lần để đạt được ngưỡng có thể đưa vào triển khai trong thực tế. Trong bảng I thể hiện kết quả trung bình qua các lần thử nghiệm ở cột môi trường lý tưởng và trong 2 lần triển khai hệ thống ở vùng bị lũ lụt thì kết quả được thể hiện ở trong cột môi trường thực tế.

Chỉ sốMôi trường thực tếTiêu chuẩn quốc tế
Độ trễ40 ms<150 ms (ITU-T G.114) [6]
Jitter8 ms<30 ms (ITU-T G.114)[7]
Tỷ lệ mất gói tin1.5%<1% (ITU-T Y.1541)[8]
Băng thông35 MbpsTùy thuộc vào môi trường (RFC 6349)
Số lượng gói tin trên giây7,500 PPSKhông có tiêu chuẩn cụ thể

Bảng I: SO SÁNH HIỆU SUẤT TRUYỀN THÔNG TRONG MẠNG VỚI CÁC DỮ LIỆU THAM CHIẾU UY TÍN

Kết quả triển khai hệ thống trong thực tế được thể hiện qua bảng I. Các thử nghiệm cho thấy hệ thống hoạt động ổn định trong điều kiện khắc nghiệt, như vùng bị lũ lụt, với độ trễ và jitter nằm trong phạm vi chấp nhận theo tiêu chuẩn ITU-T G.114. Mặc dù tỷ lệ mất gói tin cao hơn mức khuyến nghị của ITU-T Y.1541, hệ thống vẫn đáp ứng tốt các yêu cầu về băng thông, đạt 35 Mbps trong môi trường thực tế. Hiệu suất tổng thể của hệ thống cho thấy sự khả thi trong triển khai, với một số khía cạnh có thể cần tối ưu thêm để đảm bảo chất lượng dịch vụ tốt nhất trong các môi trường thách thức.

B. Kết quả triển khai mô hình vẽ bản đồ

Với dữ liệu đầu vào là 575 ảnh chụp từ UAV có chứa thông tin về GPS, độ cao và góc quay của gimbal, chúng tôi đã thu được bản đồ của 85% diện tích khu vực cần khảo sát như hình 8. Diện tích của khu vực đã tạo được bản đồ là 12,000 m², và phần bị khuyết nằm ở các khu vực rìa của khu vực khảo sát, nơi dữ liệu hình ảnh không đạt được độ chồng lấn cần thiết do các giới hạn về góc quay và khoảng cách của UAV. Những vị trí này chủ yếu nằm ở các khu vực có địa hình phức tạp hoặc bị che khuất bởi vật cản như cây cối và công trình xây dựng.

Một mô hình ứng dụng công nghệ UAV và trí tuệ nhân tạo phục vụ chỉ huy và hỗ trợ ứng cứu tại hiện trường
Hình 8. Kết quả dựng bản đồ khu vực gặp thiên tai

Mặc dù có một phần nhỏ bị khuyết, kết quả tổng thể đã cung cấp một bản đồ chi tiết và chính xác về địa hình, giúp ích rất nhiều trong việc lập kế hoạch cứu hộ và phân bổ nguồn lực. Ngoài ra, bản đồ được tạo ra đã được sử dụng để đánh dấu các khu vực an toàn và nguy hiểm, từ đó hỗ trợ tối ưu trong quá trình ra quyết định cứu hộ và sơ tán. Các công cụ xử lý hình ảnh và bản đồ không gian 3D từ dữ liệu UAV đã chứng minh được khả năng tạo ra các mô hình địa hình chính xác, đặc biệt hữu ích trong việc quản lý thảm họa và giám sát môi trường sau thiên tai.

C. Kết quả triển khai mô hình YOLOv10 phát hiện nạn nhân

Một mô hình ứng dụng công nghệ UAV và trí tuệ nhân tạo phục vụ chỉ huy và hỗ trợ ứng cứu tại hiện trường
Hình 9. Kết quả triển khai mô hinh AI phát hiện nạn nhân

Sau khi xử lý và đào tạo lại mô hình YOLOv10, khả năng nhận diện các vật thể nhỏ tăng lên đáng kể. Kết quả của nhận diện nạn nhân như hình 9 trong môi trường có độ chính xác nằm trong khoảng 90%, tuy vẫn còn nhận diện sai môt số thành phần nhưng đáp ứng được yêu cầu cốt lõi là không bỏ sót nạn nhân. Biểu đồ 10 thể hiện kết quả thực nghiệm với khu vực lũ lụt, trên tổng số 25 mẫu frame dữ liệu thu thập được có chứa hình ảnh nạn nhân thì tỉ lệ bỏ qua nạn nhân nhỏ hơn 5%.

Một mô hình ứng dụng công nghệ UAV và trí tuệ nhân tạo phục vụ chỉ huy và hỗ trợ ứng cứu tại hiện trường
Hình 10. Kết quả triển khai mô hinh AI phát hiện nạn nhân

Một điều đáng chú ý khác là thời gian xử lý. Như được trình bày trong bảng 11 , thời gian xử lý cho mỗi khung hình (frame) diễn ra trong một khoảng thời gian rất ngắn, dao động từ 16ms đến 25ms. Điều này cho thấy rằng hệ thống sử dụng mô hình YOLOv10 có khả năng xử lý dữ liệu video thời gian thực với tốc độ cao, đảm bảo rằng các khung hình từ UAV được phân tích và xử lý một cách hiệu quả mà không gây ra sự chậm trễ đáng kể. Với độ trễ thấp như vậy, hệ thống có thể đưa ra kết quả nhanh chóng, từ đó hỗ trợ kịp thời cho các quyết định liên quan đến tình huống tìm kiếm cứu nạn khẩn cấp.

Một mô hình ứng dụng công nghệ UAV và trí tuệ nhân tạo phục vụ chỉ huy và hỗ trợ ứng cứu tại hiện trường
Hình 11. Thời gian xử lý của YOLOv10

D. Kết quả triển khai thuật toán định vị đối tượng

Ở vùng gặp thiên tai, chúng tôi không thể thực hiện các phép đo trực tiếp đối với vị trí của người gặp nạn, vì vậy các kết quả trình bày trong phần này là kết quả thử nghiệm trong ở nơi gặp thiên tai nhưng trong điều kiện có thể kiểm soát được. Bảng II đã thể hiện mức độ sai lệch giữa vị trí tọa độ GPS mà chúng tôi tính toán được và tọa độ thực tế.

No.GPSĐộ lệch thực tế (m)Địa điểmthực hiện
LongLat
1105.9108821.2250526.8làng Diên Lộc
2105.9102321.2258324.7làng Diên Lộc
3106.284421.0919328.3làng Tân Tiến

Bảng II: KẾT QUẢ THỰC NGHIỆM XÁC ĐỊNH VỊ TRÍ

Bằng kết quả được trình bày ở bảng II, ta có thể thấy được sự cải thiện đáng kể trong việc xác định vị trí nạn nhân. Sai số được ghi nhận nằm trong khoảng chấp nhận được khi xét với ngữ cảnh triển khai tìm kiếm cứu nạn thực tế.

VIII. KẾT LUẬN

Nghiên cứu này đã đề xuất và triển khai thành công một hệ thống tích hợp UAV và trí tuệ nhân tạo nhằm hỗ trợ hiệu quả cho công tác tìm kiếm cứu nạn, đặc biệt trong các khu vực có địa hình phức tạp hoặc bị chia cắt. Thông qua các thử nghiệm thực tế tại các vùng chịu ảnh hưởng bởi thiên tai, hệ thống đã chứng minh khả năng vượt trội trong việc thu thập dữ liệu, phân tích và hỗ trợ ra quyết định tìm kiếm cứu nạn nhanh chóng và chính xác. Việc ứng dụng công nghệ UAV giúp vượt qua các hạn chế về địa hình, trong khi AI đảm bảo khả năng nhận diện đối tượng và xử lý dữ liệu thời gian thực một cách hiệu quả. Kết quả của nghiên cứu này không chỉ khẳng định tính khả thi của hệ thống trong tìm kiếm cứu nạn mà còn mở ra tiềm năng ứng dụng rộng rãi trong nhiều lĩnh vực khác như giám sát môi trường, quản lý thiên tai và hỗ trợ cứu trợ khẩn cấp. Trong tương lai, việc nâng cao khả năng xử lý dữ liệu, tối ưu hóa thuật toán AI và mở rộng ứng dụng sẽ là các hướng nghiên cứu cần thiết để tăng cường hiệu quả của hệ thống.

LỜI CẢM ƠN

Nhóm tác giả: Đỗ Trọng Tuấn, Hồ Xuân Hải, Nguyễn Đình Duy (Trường Điện - Điện tử, Đại học Bách Khoa Hà Nội) và Lương Tuấn Hải†(Cục Viễn thông và cơ yếu, Bộ Công an) xin chân thành cảm ơn Đại học Bách khoa Hà Nội (HUST) đã hỗ trợ đề tài nghiên cứu này, được thực hiện tại Phòng nghiên cứu Điện tử Hàng không Vũ trụ (ASELab), Trường Điện-Điện tử (SEEE-HUST) và triển khai thực nghiệm ứng dụng tại địa bàn bị ảnh hưởng của hoàn lưu bão Yagi tại tỉnh Bắc Ninh.

TÀI LIỆU THAM KHẢO

[1] unicef, “Những thiệt hại do bão yagi,” Reports, 2024. [Online]. Available: https://thanhnien.vn/thiet-hai-tham-khoc-sau-bao-yagi- 71-nguoi-chet-va-mat-tich-185240909235907763.htm

[2] C. Perkins, RTP: Audio and Video for the Internet. AddisonWesley, 2003.

[3] R. Braden, D. Clark, and S. Shenker, “Integrated services in

the internet architecture: An overview,” Internet Engineering Task Force (IETF), RFC 1633, 1994. [Online]. Available: https://www.rfc-editor.org/rfc/rfc1633.txt

[4] E. M. Mikhail, J. S. Bethel, and C. J. McGlone, Introduction to Modern Photogrammetry. New York, USA: John Wiley & Sons, 2001.

[5] A. Wang, H. Chen, L. Liu, K. Chen, Z. Lin, J. Han, and G. Ding, “Yolov10: Real-time end-to-end object detection,” arXiv preprint arXiv:2405.14458, 2024.

[6] International Telecommunication Union (ITU-T), “Recommendation g.114: One-way transmission time,” https://www.itu.int/rec/TREC-G.114, 2003.

[7] I. T. U. (ITU-T), “Recommendation y.1541: Network performance objectives for ip-based services,” https://www.itu.int/rec/T-RECY.1541, 2011.

[8] M. Mathis, J. Heffner, and R. Raghunarayan, “Framework for tcp throughput testing (rfc 6349),” https://tools.ietf.org/html/rfc6349, 2011, internet Engineering Task Force (IETF).

Theo tạp chí Điện tử và Ứng dụng

Cập nhật tin tức công nghệ mới nhất tại fanpage Công nghệ & Cuộc sống

Nguồn tin:

 

Tham gia bình luận