Elon Musk đưa ra cảnh báo AI có thể nguy hiểm hơn cả bom hạt nhân

0
5493

Elon Musk vừa đưa ra cảnh báo rằng sẽ còn nguy hiểm hơn cả đầu đạn hạt nhân, và cần phải có một đạo luật quản lý dành cho AI.

Với sự phát triển vượt bậc và không có sự kiểm soát của trí tuệ nhân tạo (AI) hiện nay, nhiều chuyên gia công nghệ trên thế giới đã đưa ra nhiều cảnh báo về mối nguy hại của AI đối với nhân loại. Tuy nhiên, bên cạnh các ý kiến khắt khe về AI, một số ông lớn khác trong ngành công nghệ lại bày tỏ những ý kiến tích cực của mình về AI và từ đây đã hình thành hai luồn ý kiến khác nhau về sự phát triển của AI.

Elon Musk, một trong những người ứng dụng AI nhiều nhất vào trong các sản phẩm của mình, nhưng ông lại là một người luôn dè chừng với sự phát triển của công nghệ này. Ông luôn đưa ra các cảnh báo về sự nguy hiểm của AI trong quá trình phát triển không có sự kiềm hãm hiện nay. Tại một sự kiện ở South by Southwest, ông một lần nữa nhấn mạnh quan điểm của mình và chia sẻ AI thực sự khiến ông phải lo lắng.

Xuất hiện trên chiếc ghế nóng cùng với người bạn đồng sáng lập chương trình Westworld, Jonathan Nolan, Musk cho biết, mặc dù ông không phải là người ủng hộ các quy định và giám sát nghiêm ngặt, nhưng với AI là một ngoài lệ. Musk nói: “Đây là một trường hợp có mối nguy hại nghiêm trọng đối với nhân loại, cần phải có một cơ quan công cộng có cái nhìn sâu sắc và có thể giám sát để đảm bảo rằng AI được phát triển một cách an toàn, điều này là cực kỳ quan trọng.”.

Ông chia sẻ thêm: “Một số chuyên gia về AI nghĩ rằng họ hiểu biết hơn về công nghệ mà họ tạo ra, những thứ họ làm ra sẽ giúp cho sự phát triển của con người diễn ra nhanh hơn, họ cho rằng trí thông minh nhân tạo mà họ tạo ra sẽ không bao giờ có thể đe doạ đến loài người và họ không thích ý tưởng máy móc có thể thông minh hơn họ. Nhân loại đang tiến rất gần đến sự tiến bộ vượt bậc của AI và nó đã làm tôi cảm thấy sợ hãi.”.

Chỉ ra một minh chứng là AlphaGo và AlphaGo Zero, Musk cho hay AI có nhiều khả năng hơn bất cứ ai có thể biết, và tỷ lệ nâng cấp khả năng của AI là vô tận.

Trong khoảng từ 6 đến 9 tháng, AlphaGo từ không thể đánh bại một người chơi cờ vay cơ bản, và sau đó là đánh bại hàng loạt các nhà vô địch thế giới về môn cờ vay, nhờ vào khả năng tự học. Thậm chí AlphaGo Zero còn đánh bại AlphaGo với tỉ số 100-0.

Musk cho biết: “Không ai dự đoán được tốc độ của sự phát triển này”.

Dự đoán số phận tượng tự cho các phương tiện tự lái, Musk dự kiến vào cuối năm tới, hệ thống lái tự động sẽ được tích hợp vào phần lớn các mẫu xe hơi và đảm bảo được mức độ an toàn cho người lái từ 100-200%.

Musk nói: “Tốc độ cải tiến thực sự ấn tượng, nhưng chúng ta phải tìm ra một số cách để đảm bảo rằng sự ra đời của các kỹ thuật siêu thông minh là một trong những điều phát triển an toàn với nhân loại. Tôi nghĩ rằng, đây là một cuộc khủng hoàn lớn đối với sự tồn tại của nhân loại đang phải đối mặt. Sự nguy hiểm của AI lớn hơn rất nhiều so với nguy cơ từ đầu đạn hạt nhân, nếu như đã có các tổ chức được thành lập để ngăn chặn sự phát triển của hạt nhân, thì cần phải có một đạo luật để quản lý AI”.

Điều quan trọng nhất Musk tin rằng, cần phải đặt ra khuôn khổ cho việc tạo ra AI, nếu nhân loại quyết định đó là một hành động đúng.

Trước đây, Musk cũng đã từng cho rằng, AI có thể dẫn đến Thế chiến thứ III. Cùng với dự án SpaceX nhằm đưa loài người định cư ngoài không gian, Musk nói rằng ông đang chuẩn bị cho một thời kỳ đen tối sắp xảy ra với Trái Đất.

“Nếu trái đất trải qua một thời kỳ tăm tối, điều mà tôi đã dự đoán chắc có thể xảy ra ở một thời điểm nào đó, đặc biệt là một cuộc chiến tranh thế giới thứ ba, thì chúng tôi muốn chắc chắn rằng có đủ nguồn giống và nền văn minh của con người ở đâu đó trên một hành tinh khác nhằm xây dựng lại nền văn minh loài người và có thể rút ngắn thời gian của thời kỳ tăm tối.”.

Musk nghĩ rằng một căn cứ trên sao Hoả và một căn cứ trên Mặt Trăng có thể giúp hồi sinh cuộc sống trên Trái Đất, nếu điều tồi tệ nhất xảy ra.

Di Động Việt

ĐĂNG BÌNH LUẬN