[THĐP Translation™] Elon Musk: “Hãy nhớ lời tôi — AI nguy hiểm hơn nhiều so với vũ khí hạt nhân”

elon
Elon Musk thuyết trình tại SXSW (Photo: Chris Saucedo)

Xếp của Tesla và SpaceX, Elon Musk, lại nhấn mạnh gấp đôi những cảnh báo nghiêm trọng về sự nguy hiểm của trí thông minh nhân tạo (artificial intelligence, AI).

Vị doanh nhân tỉ phú công nghệ cao xem AI nguy hiểm hơn các đầu đạn hạt nhân và cho rằng cần có một cơ quan quản lý nhằm giám sát sự phát triển trí thông minh nhân tạo siêu việt, khi phát biểu tại hội nghị công nghệ “South by Southwest” (SXSW) ở Austin, Texas vào chủ nhật.

Đây không phải là lần đầu tiên Musk đưa ra những dự đoán đáng sợ về tiềm năng của trí thông minh nhân tạo―ví dụ, anh từng nói AI ghê gớm hơn nhiều Bắc Triều Tiên―và trước đó còn kêu gọi ban hành luật giám sát.

>> [THĐP Translation™] Cần sa, whisky, và trí tuệ nhân tạo A.I — 5 điểm nổi bật từ cuộc phỏng vấn tỷ phú Elon Musk trên Joe Rogan Experience

Một số người cho rằng anh chỉ cố tình gây hoang mang sợ hãi. Người sáng lập Facebook Mark Zuckerberg cho rằng những kịch bản ngày tận thế của Musk là không cần thiết và “khá vô trách nhiệm.” Và giáo sư Harvard Steven Pinker gần đây cũng phê bình chiến thuật của Musk.

Tuy nhiên, Musk vẫn kiên quyết, gọi những người phản đối mình là “fools” (những kẻ ngu ngốc/khờ dại) tại SXSW.

“Tôi thấy vấn đề lớn nhất của những người được-cho-là chuyên gia AI này là họ nghĩ họ biết nhiều hơn những gì họ thực sự biết, và họ nghĩ rằng mình thông minh hơn thực tế,” Musk nói. “Những người thông minh thường dễ mắc phải chuyện này. Họ định nghĩa bản thân bằng trí thông minh của mình và họ không thích ý tưởng rằng một cỗ máy có thể thông minh hơn họ rất nhiều, nên họ chối bỏ ý tưởng ấy―về cơ bản nó là một sai lầm.”

Dựa trên kiến thức của mình về trí thông minh máy móc và sự phát triển của nó, Musk tin rằng có lý do để lo lắng.

“Tôi đã tiến đến khá gần, rất gần, tới sự đột phá trong AI và nó làm tôi cực kỳ khiếp sợ,” Musk nói. “khả năng của nó rộng lớn hơn đa số mọi người biết và tốc độ tiến triển là theo cấp lũy thừa (exponential).”

CREATOR: gd-jpeg v1.0 (using IJG JPEG v80), quality = 82

Musk lấy ví dụ về trí tuệ máy móc trong trò cờ Vây của Trung Quốc để chứng minh sự phát triển nhanh chóng trong khả năng của AI. Ví dụ, công ty có trụ sở tại Luân Đôn, DeepMind, được Google mua lại vào năm 2014, đã phát triển một hệ thống trí thông minh nhân tạo, AlphaGo Zero, đã học chơi cờ vây mà không có sự can thiệp của con người. Nó học đơn giản bằng cách tự chơi với chính mình. Công ty thuộc sở hữu của Alphabet đã công bố phát triển này trong một bài nghiên cứu được công bố vào tháng Mười.

Musk lo ngại sự phát triển của AI sẽ vượt ngoài khả năng quản lý an toàn của chúng ta.

“Tốc độ phát triển của nó rất chóng mặt. Chúng ta phải tìm ra cách nào đó để đảm bảo rằng sự ra đời của siêu trí tuệ kỹ thuật số sẽ cộng sinh với nhân loại. Tôi nghĩ đó là cuộc khủng hoảng hiện sinh lớn nhất và bức thiết nhất mà chúng ta đối mặt.”

Để làm điều này, Musk đề nghị đưa ra luật kiểm soát dành cho AI.

Musk nói:

“Thường thì tôi không phải là người ủng hộ quy định và giám sát – tôi nghĩ thường thì chúng ta nên giảm bớt những thứ đó – nhưng trường hợp này là một mối nguy nghiêm trọng đến mọi người.”

“Cần có một cơ quan công cộng thông suốt vấn đề và sau đó giám sát để xác nhận rằng mọi người đang phát triển AI một cách an toàn. Điều này cực kỳ quan trọng. Tôi nghĩ rằng nguy hiểm của AI lớn hơn nhiều so với đầu đạn hạt nhân và không có ai gợi ý rằng chúng ta cho phép bất cứ ai chế tạo đầu đạn hạt nhân tùy thích. Điều đó sẽ thật điên rồ,” anh nói tại SXSW.

“Và hãy nhớ lời tôi, AI nguy hiểm hơn nhiều so với hạt nhân. Nhiều. Vậy tại sao chúng ta không có luật lệ giám sát? Điều này quá điên rồ.”

Musk cũng từng kêu gọi luật pháp giám sát trí thông minh nhân tạo vào tháng Bảy với Hội đồng Thống đốc Quốc gia (Mỹ) (National Governors Association). Musk cho biết:

“AI là một trường hợp hiếm hoi mà tôi nghĩ chúng ta cần chủ động hơn là bị động, phản ứng.”

Khi phân tích sự nguy hiểm của AI, Musk phân biệt giữa các ứng dụng cụ thể của công nghệ này như xe tự lái và trí tuệ máy móc nói chung, điều mà anh mô tả trước đây là “sở hữu một chức năng với mục đích mở” và có “năng lực tính toán lớn gấp hàng triệu lần” so với AI trong các trường hợp cụ thể.

“Tôi không thực sự lo lắng về những thứ ngắn hạn. Trí tuệ nhân tạo yếu (Narrow AI) không phải là một nguy cơ tầm cỡ diệt chủng. Nó sẽ dẫn đến những sự chuyển dịch, mất việc làm, vũ khí tốt hơn và đại loại như vậy, song không phải là rủi ro tầm cỡ diệt chủng như siêu trí tuệ kỹ thuật số,” Musk giải thích.

“Vì vậy, vấn đề là ta cần một nền tảng chung để nhân loại quyết định xem việc tạo ra siêu trí tuệ kỹ thuật số là động thái đúng, thì chúng ta nên làm như vậy thật cẩn thận, rất rất cẩn thận. Đây là điều quan trọng nhất chúng ta có thể làm.”

Song, Musk vẫn ở trong lĩnh vực này với Neuralink, một công ty đang làm việc để tạo ra một cách thức kết nối bộ não với trí tuệ máy móc.

Musk hy vọng rằng “chúng tôi có thể đạt được một sự cộng sinh” với trí thông minh nhân tạo: “Chúng tôi muốn có sự kết hợp chặt chẽ giữa trí thông minh của con người và trí thông minh kỹ thuật số, và Neuralink đang cố gắng giúp đỡ bằng cách thử tạo một giao tiếp băng thông cao giữa AI và bộ não con người,” anh nói.

Tác giả: Catherine Clifford
Biên dịch: Sang Doan
Hiệu đính: Ka Ka

Ảnh minh họa: TheDigitalArtist

🤖 Bài dịch đã được đăng tải trong tạp chí Aloha Volume 3. Mua membership để đọc tạp chí (48k/1 volume, 999k/1 năm, 24 volume) ➡️ http://bit.ly/THDPmembership


📌 Aloha Volume 1- 9

📌 Mời Triết Học Đường Phố và các tác giả một ly cafe ➡️http://bit.ly/donateTHDP

  1. Chuyển tiền qua ngân hàng Việt Nam
    Người nhận: Vũ Thanh Hòa
    Ngân hàng Vietcombank chi nhánh Thành Công, Hà Nội
    Số TK: 0451000409314
  2. Chuyển tiền qua Paypal
    Người nhận: Huy Nguyen
    Địa chỉ: https://paypal.me/huythdp

📌 Tham gia viết bài cùng Triết Học Đường Phố, bài viết nổi bật sẽ có nhuận bút/tip. ➡️ http://bit.ly/2KTJCN2

 

 

Advertisements

Facebook Comments

Leave a Reply

avatar
  Subscribe  
Notify of