ChatGPT từ điểm D đạt điểm A ở bài kiểm tra chỉ sau ba tháng, khiến giáo sư kinh tế ngạc nhiên.

ChatGPT từ điểm D đạt điểm A ở bài kiểm tra chỉ sau ba tháng, khiến giáo sư kinh tế ngạc nhiên.

Theo Bryan Caplan, giáo sư kinh tế tại Đại học George Mason (Mỹ) cho biết phiên bản mới nhất của ChatGPT có thể khiến ông mất món đặt cược lớn nhất trong lịch sử.

GPT-3.5 không hiểu lý thuyết cơ bản

Bryan Caplan đã đưa ra các câu hỏi cho ChatGPT, hoạt động dựa trên mô hình ngôn ngữ GPT-3.5 từ kỳ thi giữa kỳ mùa thu của anh ấy, trong một bài đăng trên blog vào tháng 1.

Thay vì yêu cầu sinh viên thuộc lòng sách giáo khoa hoặc được xem như các bài tập về trí nhớ, Bryan Caplan cho rằng các câu hỏi trong bài thi này nhằm mục đích kiểm tra sự hiểu biết của sinh viên về kinh tế học.

Phiên bản cũ của ChatGPT đã gặp vấn đề khi chỉ đạt điểm 31/100 trong bài kiểm tra, tương đương điểm D.

Theo Bryan Caplan, ChatGPT không hiểu các khái niệm cơ bản, chẳng hạn như nguyên tắc lợi thế so sánh và lợi thế tuyệt đối. Ông tuyên bố rằng các câu trả lời của ChatGPT cũng chính trị hơn là kinh tế.

Trong bài đăng trên blog vào tháng 1 của mình, Bryan Caplan nói rằng "ChatGPT đã bắt chước một sinh viên kinh tế Đại học George Mason rất yếu."

Bryan Caplan không phải là học giả duy nhất thất vọng với ChatGPT. Mặc dù ChatGPT vượt qua kỳ thi Trường Kinh doanh Wharton (Mỹ) vào tháng 1, giáo sư trường này cho biết rằng chatbot của OpenAI mắc những lỗi đáng ngạc nhiên trong các phép tính đơn giản.

Cuộc đánh cược lớn

Cược cá cược là sở thích của Bryan Caplan. Trước đây, anh ấy đã đặt cược công khai 23 lần và tất cả đều thắng. Các món cược với số tiền khiêm tốn khoảng 100 đô la thường liên quan đến các chủ đề kỹ thuật như dự đoán tỷ lệ thất nghiệp, chỉ số lạm phát.

Năm 2008, Bryan Caplan đã suýt thắng trong một vụ cá cược rằng không quốc gia thành viên nào sẽ rời Liên minh châu Âu (EU) trước năm 2020: Vương quốc Anh sẽ rời khỏi Liên minh châu Âu vào tháng 1.2020.

Trước năm 2029, Bryan Caplan đã đánh cược rằng một mô hình trí tuệ nhân tạo (AI) sẽ không đạt điểm A trên 6/7 bài kiểm tra của ông vì ông đã rất thất vọng về các câu trả lời của ChatGPT.

Tuy nhiên, Bryan Caplan sốc trước sự tiến bộ của GPT-4 khi nó được phát hành. Nó đạt điểm A tương đương với 73% trong cùng một bài kiểm tra giữa kỳ và nằm trong số những điểm cao nhất trong lớp của ông.

giao-su-kinh-te-sung-sot.jpg
ChatGPT-4 đạt 73% trong bài kiểm tra kinh tế của Giáo sư Bryan Caplan

Bản nâng cấp của ChatGPT (ChatGPT-4 hiện có tính pí) đã khắc phục một số vấn đề ban đầu trong GPT-3.5 và hoạt động dựa trên mô hình ngôn ngữ GPT-4. Điều này, theo tuyên bố của OpenAI, đã làm cho GPT có khả năng phản hồi chính xác hơn 40% và xử lý các chỉ dẫn tinh vi hơn.

Những cải tiến được thể hiện rõ ràng với Bryan Caplan. ChatGPT-4 trả lời rõ ràng các câu hỏi của anh ấy và hiểu các khái niệm mà trước đây chatbot này gặp khó khăn. Khi giải thích và đánh giá các khái niệm do các nhà kinh tế học như Paul Krugman đưa ra, GPT-4 cũng đạt điểm tuyệt đối.

Theo Bryan Caplan, "Điều duy nhất tôi muốn nói là nó có vẻ tốt hơn rất nhiều."

Theo Bryan Caplan, bài đăng trên blog trước đây của anh ấy trên đó ông giải thích câu trả lời có thể đã chọn dữ liệu đào tạo ChatGPT. Tuy nhiên, các đồng nghiệp của Bryan Caplan đã nói với anh ấy rằng điều này rất khó xảy ra.

Theo Bryan Caplan, ChatGPT-4 đã nhận được những bài kiểm tra hoàn toàn mới mà nó chưa từng thấy trước đây. Kết quả là ChatGPT-4 đạt được điểm số tốt hơn đáng kể so với mức điểm 73% trước đó.

Theo Bryan Caplan, "Tôi đã rất tự mãn trong nhận định của mình và không còn tự mãn nữa."

Bryan Caplan tự tin hơn rằng sẽ thắng trong vụ cá cược liên quan đến AI sắp tới. Ông có một vụ cá cược với Eliezer Yudkowsky, người có quan điểm bi quan về AI và từng tranh luận với Sam Altman, Giám đốc điều hành OpenAI, rằng AI sẽ dẫn đến sự tận diệt của thế giới trước ngày 1.1.2030.

Theo Bryan Caplan, tôi sẵn sàng tham gia vào nhiều hơn những vụ cá cược về AI liên quan đến tận diệt của thế giới bởi vì tôi tin rằng những người này đã hoàn toàn mất trí. Điều này ngụ ý rằng ông không tin AI sẽ dẫn đến sự tận diệt của thế giới.

Khó kiểm tra

Các chatbot AI khiến các giám khảo phải đau đầu. Các giáo sư nói với trang Insider rằng khó có thể chứng minh hành vi đạo văn với tài liệu từ ChatGPT vì không có bằng chứng cụ thể về hành vi vi phạm quyền sở hữu trí tuệ.

Sau sự trỗi dậy của ChatGPT, Bryan Caplan nói rằng anh ấy đang cân nhắc việc loại bỏ bài tập về nhà được chấm điểm. Ông hy vọng rằng thói quen thay đổi câu hỏi thường xuyên sẽ đủ để ngăn sinh viên tái sử dụng câu trả lời của ChatGPT trong một bài kiểm tra.

Nhiều cải tiến đáng giá của GPT-4

Theo OpenAI, GPT-4 tiên tiến hơn trong ba lĩnh vực chính: Tính sáng tạo, đầu vào trực quan và ngữ cảnh dài hơn. Về khả năng tương tác, OpenAI tuyên bố rằng GPT-4 được đào tạo tốt hơn nhiều trong cả việc tạo và cộng tác với người dùng trong các dự án sáng tạo. Ví dụ về những điều này bao gồm việc sử dụng âm nhạc, kịch bản, viết kỹ thuật và thậm chí là "học cách viết của người dùng" cho một số bài kiểm tra đại học. Với tối đa 25.000 từ văn bản từ người dùng, GPT-4 hiện có thể xử lý. Ngay cả khi bạn gửi cho GPT-4 một liên kết web và yêu cầu nó tương tác với văn bản từ trang đó, bạn vẫn có thể yêu cầu kết quả tương tác giữa GPT-4 và GPT-4. Theo OpenAI, điều này có thể dẫn đến việc tạo nội dung dài và "các cuộc hội thoại mở rộng" hoặc thậm chí sử dụng hình ảnh làm cơ sở để tương tác. Ví dụ, mô hình ngôn ngữ mới được cung cấp hình ảnh của một số nguyên liệu làm bánh và được hỏi có thể làm gì khi sử dụng trong trang web GPT-4. Công ty đã dành sáu tháng qua để tinh chỉnh GPT-4 theo hướng dẫn về nội dung mở rộng và an toàn hơn cho các lĩnh vực kinh tế vĩ mô. Theo OpenAI, công ty đã làm việc với "hơn 50 chuyên gia để có phản hồi sớm trong các lĩnh vực như an toàn và bảo mật AI" trong khi nói rằng GPT-4 đã được đào tạo với phản hồi của con người. Giám đốc điều hành GPT-4.

Cập nhật tin tức công nghệ mới nhất tại fanpage Công nghệ & Cuộc sống

Nguồn tin:

 

Tham gia bình luận