Trí tuệ nhân tạo (AI) đang ngày càng len lỏi vào cuộc sống của con người bởi những lợi ích và giá trị khổng lồ mà nó đem lại. Tuy nhiên, công nghệ này cũng đặt ra những nghi hoặc về tính an toàn của chúng. 

Một bức thư ngỏ đã được công bố vào cuối tháng 3 vừa qua, kêu gọi tất cả các phòng thí nghiệm AI ngay lập tức tạm dừng việc đào tạo các hệ thống AI mạnh hơn GPT-4, tạo ra một cuộc tranh luận gay gắt xung quanh các rủi ro khác nhau của AI, cả ngắn hạn và dài hạn. 

Bức thư được ký bởi Elon Musk, Steve Wozniak, Yoshua Bengio, Gary Marcus và hàng nghìn chuyên gia, nhà nghiên cứu và lãnh đạo ngành AI khác, xuất bản bởi tổ chức phi lợi nhuận Future of Life Institute. Tổ chức này được thành lập để “giảm thiểu thảm họa toàn cầu và rủi ro có thể xảy ra từ công nghệ” (những người sáng lập bao gồm nhà vũ trụ học Max Tegmark của MIT, đồng sáng lập Skype Jaan Tallinn và nhà khoa học nghiên cứu DeepMind Viktoriya Krakovna). 

Nội dung bức thư kêu gọi tạm dừng phát triển AI

Các hệ thống AI có trí tuệ cạnh tranh với con người có thể gây ra rủi ro sâu sắc cho xã hội và nhân loại, như đã được chỉ ra trong những nghiên cứu sâu rộng và được các phòng thí nghiệm AI hàng đầu thừa nhận. Như đã nêu trong Nguyên tắc AI của Asilomar đã được chứng thực rộng rãi, AI tiên tiến có thể đại diện cho một sự thay đổi sâu sắc trong lịch sử sự sống trên Trái đất và cần được lên kế hoạch cũng như quản lý với sự quan tâm và nguồn lực tương xứng.

Thật không may, mức độ lập kế hoạch và quản lý này không xảy ra, mặc dù những tháng gần đây đã chứng kiến ​​các phòng thí nghiệm AI bị cuốn vào một cuộc chạy đua mất kiểm soát để phát triển và triển khai những bộ óc kỹ thuật số mạnh mẽ hơn bao giờ hết mà không ai – kể cả những người tạo ra chúng – có thể dự đoán hoặc kiểm soát một cách đáng tin cậy.

Các hệ thống AI đương đại hiện đang trở nên cạnh tranh với con người trong các nhiệm vụ chung, và chúng ta phải tự hỏi: Liệu chúng ta có nên để máy móc tràn ngập các kênh thông tin của mình bằng tuyên truyền và sai sự thật? Chúng ta có nên tự động hóa tất cả các công việc hay không? Chúng ta có nên phát triển những bộ óc phi nhân loại mà chúng có thể thông minh hơn và cuối cùng có thể thay thế chúng ta không? Chúng ta có nên mạo hiểm mất kiểm soát nền văn minh của mình không? Những quyết định như vậy không được giao cho các nhà lãnh đạo công nghệ không được bầu chọn. 

Các hệ thống AI mạnh mẽ chỉ nên được phát triển khi chúng ta tin tưởng rằng tác động của chúng sẽ tích cực và rủi ro của chúng sẽ có thể kiểm soát được. Sự tự tin này phải được chứng minh rõ ràng và tăng theo mức độ ảnh hưởng tiềm ẩn của hệ thống. 

Do đó, chúng tôi kêu gọi tất cả các phòng thí nghiệm AI ngay lập tức tạm dừng ít nhất 6 tháng việc đào tạo các hệ thống AI mạnh hơn GPT-4. Việc tạm dừng này phải được công khai và có thể kiểm chứng, đồng thời bao gồm tất cả các tác nhân chính. Nếu việc tạm dừng như vậy không thể được ban hành nhanh chóng, chính phủ nên can thiệp và đưa ra lệnh cấm.

Các phòng thí nghiệm AI và các chuyên gia độc lập nên tận dụng khoảng thời gian tạm dừng này để cùng phát triển và triển khai một bộ giao thức an toàn dùng chung cho thiết kế và phát triển AI tiên tiến, được kiểm tra và giám sát chặt chẽ bởi các chuyên gia độc lập bên ngoài. Điều này không có nghĩa là tạm dừng phát triển AI nói chung, chỉ đơn thuần là một bước lùi khỏi cuộc đua để xem xét lại công nghệ tân tiến nhưng cũng đầy hiểm họa này.

Nghiên cứu và phát triển AI nên được tái tập trung vào việc làm cho các hệ thống mạnh mẽ, hiện đại ngày nay trở nên chính xác, an toàn, dễ hiểu, minh bạch, phù hợp, đáng tin cậy và trung thành.

Song song đó, các nhà phát triển AI phải làm việc với các nhà hoạch định chính sách để tăng tốc sự phát triển của các hệ thống quản trị AI mạnh mẽ. Những điều này ở mức tối thiểu phải bao gồm: các cơ quan quản lý mới và có năng lực dành riêng cho AI; giám sát và theo dõi các hệ thống AI có khả năng cao và các nhóm khả năng tính toán lớn; hệ thống đánh dấu nguồn gốc và hệ thống watermark để giúp phân biệt giữa nội dung do con người tạo ra và nội dung do AI tạo ra; một hệ sinh thái kiểm toán và chứng nhận mạnh mẽ; trách nhiệm đối với tổn hại do AI gây ra; tài trợ công mạnh mẽ cho nghiên cứu an toàn AI kỹ thuật; và các tổ chức có nguồn lực tốt để đối phó với những gián đoạn nghiêm trọng về kinh tế và chính trị (đặc biệt là đối với nền dân chủ) mà AI sẽ gây ra.

Nhân loại có thể tận hưởng một tương lai hưng thịnh với AI. Sau khi đã thành công trong việc tạo ra các hệ thống AI mạnh mẽ, giờ đây chúng ta có thể tận hưởng “mùa hè AI”, đó là nơi chúng ta gặt hái thành quả, thiết kế các hệ thống này vì lợi ích rõ ràng của tất cả mọi người và cho xã hội cơ hội thích nghi. Xã hội đã tạm dừng các công nghệ khác có khả năng gây hậu quả thảm khốc cho nhân loại, và chúng ta có thể làm tương tự với AI.

Bức thư cho rằng “với nhiều dữ liệu và thuật toán hơn, khả năng của các hệ thống AI đang mở rộng nhanh chóng. Các mô hình AI lớn nhất ngày càng có khả năng vượt qua hiệu suất của con người trên nhiều lĩnh vực, và không một công ty đơn lẻ nào có thể dự báo điều này có ý nghĩa gì đối với xã hội của chúng ta.” 

Bức thư chỉ ra rằng siêu trí tuệ không phải là tác hại duy nhất cần quan tâm khi nói đến các mô hình AI lớn, mà những hệ thống như vậy có thể bị tội phạm lợi dụng để lừa đảo, đưa ra thông tin sai lệch và thực hiện hành vi tội phạm trên mạng. 

“Chúng tôi tin rằng các hệ thống AI mạnh mẽ chỉ nên được phát triển khi chúng tôi tin tưởng rằng tác động của chúng sẽ tích cực và rủi ro của chúng sẽ được kiểm soát,” bức thư nêu rõ. 

Gary Marcus – giáo sư danh dự tại Đại học New York, một trong những người đã ký vào bức thư, đã nói chuyện với Cade Metz của tờ New York Times rằng “có một cơn bão về sự vô trách nhiệm của công ty khi phát triển AI một cách rộng rãi, thiếu quy định trong khi vẫn đang có một lượng lớn những điều chưa được biết.” 

Bức thư này đã làm nổ ra một cuộc tranh cãi lớn giữa các giáo sư, các nhà khoa học trong ngành. Nhiều người cho rằng bức thư đang làm quá cường điệu về AI và khiến việc giải quyết các tác hại thực sự đã xảy ra của AI trở nên khó khăn hơn.

Joanna Bryson, giáo sư tại Trường Hertie ở Berlin, người nghiên cứu về AI và đạo đức, cho rằng “chúng ta không cần phải ngừng phát triển AI một cách tùy tiện, chúng ta cần các sản phẩm AI phải an toàn. Điều đó liên quan đến việc phải có quy định và luật rõ ràng để tuân theo.”

Đáp lại những lời chỉ trích, Marcus cho biết rằng mình không đồng ý với tất cả các nội dung trong bức thư ngỏ, ông ủng hộ “tinh thần chung” của bức thư: “Chúng ta cần chậm lại cho đến khi hiểu rõ hơn về AI bởi chúng có thể gây tác hại nghiêm trọng mà ta không lường trước được”.

Tóm lại, bất cứ sự phát triển mới mẻ và vượt trội nào cũng sẽ vướng phải những ý kiến trái chiều và thách thức nhất định. Rủi ro là việc không thể tránh khỏi trong tiến trình đi tới một xã hội văn minh và một cuộc sống tân tiến hơn. Điều cấp thiết nhất là các công ty phải kiểm soát để phát triển các sản phẩm công nghệ cao một cách có trách nhiệm và hạn chế rủi ro hết mức có thể, bởi việc không thể điều chỉnh, làm chủ được công nghệ sẽ kéo theo hệ quả khôn lường, gây ảnh hưởng đến toàn xã hội.

Theo Venturebeat

Trả lời

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *