Nhiều lo ngại về độ xác thực của thông tin đã được dấy lên do sự trỗi dậy của AI. Ảnh: Reuters. |
Một người đàn ông tên Roberto Mata đã đâm đơn kiện hãng hàng không Avianca của Mỹ vì khiến anh ta bị thương ở đầu gối do xe đẩy hàng tông phải tại sân bay quốc tế Kennedy, New York.
Phiên ban đầu diễn ra rất bình thường khi đơn kiện được đệ trình lên án liên bang Manhattan. Hãng hàng không đã thuê luật sư để biện hộ cho vụ kiện và cho rằng vụ án đã hết thời hạn khởi tố. Mặt khác, Steven Schwartz, luật sư của nguyên đơn, không đồng ý với lập luận của bên bị. Ông đã viện dẫn bằng cách xuất trình 10 trang tài liệu tổng hợp 8 phiên với trường hợp tương tự.
Tuy nhiên, không ai có thể xác định phán quyết của án hoặc bất kỳ đoạn trích dẫn nào trong 10 trang tài liệu này.
ra, ChatGPT đã tự phát triển tài liệu tóm tắt các tiền án liên quan đến vụ kiện. Vị luật sư nhận ra sai lầm của mình, nói rằng ông "trông mong vào sự độ lượng của án" và thừa nhận đã sử dụng AI—"một nguồn tin không đáng tin cậy" để tìm kiếm tài liệu luật pháp.
Sự nhúng tay của AI vào các văn bản pháp lý
Theo New York Times, vụ kiện của nguyên đơn Roberto Mata và bị đơn hãng hàng không Avianca bắt đầu từ chuyến bay số hiệu 670 đi từ El Salvador đến New York hôm 27/8/2019. Khi đó, một nhân viên sân bay đang đẩy xe chở hàng đã va phải Mata, dẫn đến chấn thương cho anh ta. Hãng hàng không kháng cáo và khẳng định vụ án đã hết hiệu lực sau khi Mata nộp đơn kiện lên án.
Đến phiên tháng 3, luật sư phía Mata đã nói rằng bên nguyên vẫn có thể đâm đơn kiện và viện dẫn bằng chứng bằng nhiều phán quyết đối với các vụ kiện trước đó có liên quan. Ngay sau đó, luật sư của hãng bay đã phản pháo rằng họ không thể xác định các vụ án được đề cập trong biên bản tài liệu tóm tắt của nguyên đơn.
"Chúng tôi không thể xác định thời điểm, địa điểm xảy ra các vụ án được đề cập và trích dẫn trong tài liệu hoặc bất kỳ vụ án nào khác tương tự, luật sư cho biết.
Không có bước xác minh thông tin, luật sư đã sử dụng ChatGPT trong quá trình kiện tụng. Ảnh: TechSpot. |
Thẩm phán Castel đã yêu cầu luật sư phía Mata cung cấp bản sao đầy đủ từ bản tóm tắt các vụ án trước đó. Luật sư đã nộp một bản trích yếu của 8 vụ án, bao gồm thông tin về án, thẩm phán xét xử vụ việc mã số và ngày xảy ra vụ án.
Tuy nhiên, luật sư của hãng bay Avianca tiếp tục khẳng định rằng họ không thể xác định trích dẫn, mã số vụ án hoặc dữ liệu pháp lý của 6/8 vụ án dựa trên những thông tin này.
Do đó, luật sư Bart Banino của Avianca khẳng định rằng những vụ án này hoàn toàn không có thật và nghi ngờ rằng có sự nhúng tay của chatbot AI.
Sau đó, Luật sư Schwartz thừa nhận rằng ông đã tham khảo ý kiến của ChatGPT để "bổ trợ" cho công việc của mình và trong quá trình đó, ông đã mắc sai lầm khi trích dẫn đến sáu vụ án không hề có thật trong bản tài liệu tham khảo của mình.
Để bảo vệ cho đơn kiện của hãng hàng không Avianca, luật sư Schwartz nói với thẩm phán Kevin Castel của án liên bang Manhattan rằng ông không hề có ý định thêu dệt sự thật.
Đây cũng là lần đầu tiên ông sử dụng ChatGPT trong các vụ kiện tụng, vì vậy ông không biết có nguy cơ nó sẽ bị lợi dụng. ChatGPT sau đó được yêu cầu xác nhận liệu các vụ án mà nó đề cập trong tài liệu có đúng hay không. Vào thời điểm đó, chatbot của OpenAI đã khẳng định là có.
Schwartz hỏi, "Những vụ án bạn đưa ra có phải là giả mạo không?" ChatGPT nhanh chóng trả lời: "Không những vụ án tôi đưa ra đều có thật và có thể tìm thấy trong kho dữ liệu pháp lý."
Lần đầu tiên gặp phải tình trạng AI làm giả giấy tờ pháp lý
Luật sư Schwartz bày tỏ sự hối lỗi sâu sắc khi phụ thuộc vào ChatGPT khi nói tại phiên. Ông cam kết sẽ không bao giờ tái phạm và sẽ không bao giờ bỏ qua việc xác minh như vậy trong tương lai.
Về phần án, thẩm phán Castel tuyên bố rằng đây là lần đầu tiên ông gặp phải tình huống mà mọi tài liệu về phán quyết nộp lên đều sai sự thật, ngay cả các trích dẫn luật và các vụ án tham khảo đều là giả mạo. Để đưa ra phán quyết chính thức, ông yêu cầu tổ chức một phiên điều trần vào ngày 8/6 tới.
Theo ChatGPT, tất cả các vụ án đều có thật. Ảnh: Simon Willison. |
Theo New York Times, không ít người lo ngại về tương lai các máy tính sẽ thay thế các tương tác xã hội cũng như lao động sức người khi trí tuệ nhân tạo đang dần xâm chiếm môi trường trực tuyến. Đặc biệt trong lĩnh vực lao động trí thức, họ tin rằng những công việc hàng ngày của họ không được đề cao đúng mực mà chỉ được quan tâm đến hiệu suất và lợi nhuận.
Stephen Gillers, giáo sư ngành đạo đức pháp luật tại New York University School of Law, cho rằng đây là một chủ đề quan trọng trong giới làm luật. Họ đã nhiều lần tranh luận về những lợi ích và nguy cơ mà các phần mềm AI như ChatGPT mang lại.
Xuất bản học thuật phủ nhận tác quyền của ChatGPT
Có một làn sóng lo ngại rằng AI, với những nghiên cứu bị thiếu sót hoặc thậm chí bịa đặt, có thể gây hại cho các tài liệu học thuật. Theo một bản cập nhật chính sách do Springer-Nature thực hiện, ChatGPT không thể được liệt kê là tác giả. Nhiều nhà xuất bản khác đã thực hiện các cập nhật tương tự.
Cập nhật tin tức công nghệ mới nhất tại fanpage Công nghệ & Cuộc sống
Nguồn tin: zingnews.vn
Tham gia bình luận