Phát Minh Cuối Cùng – Trí tuệ nhân tạo và sự cáo chung của kỷ nguyên con người (Phần 4)

Phát Minh Cuối Cùng – Trí tuệ nhân tạo và sự cáo chung của kỷ nguyên con người (Phần 4)

CÁCH KHÓ KHĂN

Ngoại trừ những hậu quả của công nghệ nano , trong tất cả những loại thảm họa trên thế giới , không có gì sánh được với AGI.

LIZ IR YUKOWSKY , NHÀ NGHIÊN CỨU , VIỆN NGHIÊN CỨU TRÍ THÔNG MINH MÁY TÍNH

Thung lũng Silicon gồm 14 thành phố “ chính thức ” và 25 trường đại học chuyên về toán và kỹ thuật cùng với các khuôn viên mà chúng tọa lạc trong đó . Những công ty phần mềm , bán dẫn và Internet ở đây đã tạo nên giai đoạn gần nhất của cuộc chạy đua công nghệ , bắt đầu với việc sản xuất radio vào đầu thế kỷ 20 . Thung lũng Silicon thu hút một phần ba số vốn đầu tư mạo hiểm của Hoa Kỳ . Nó có tỉ lệ công nhân / dân số làm việc trong ngành công nghệ cao nhất các thành phố Hoa Kỳ , và họ cũng được trả lương cao nhất . Thung lũng Silicon là nơi tập trung nhiều nhất các triệu phú và tỉ phú Mỹ .

Tại đây , nơi trung tâm của công nghệ toàn cầu , với thiết bị GPS trong xe thuê và một cái khác trong iPhone , tôi lái xe tới nhà Eliezer Yudkowsky theo kiểu cũ , với các chỉ dẫn viết tay . Để bảo vệ sự riêng tư của mình , Yudkowsky đã gửi các chỉ dẫn này qua email cho tôi và yêu cầu tôi không được chia sẻ chúng hoặc địa chỉ email của ông . Ông không cho tôi số điện thoại .

Năm 33 tuổi , Yudkowsky , đồng sáng lập và nhà nghiên cứu của MIRI , đã viết về những mối nguy của AI nhiều hơn bất kỳ ai khác . Khi theo đuổi sự nghiệp này vào khoảng hơn một thập niên trước , ông là một trong số rất ít người coi mối nguy của AI là sự nghiệp đời mình . Và tuy không lập các lời thề chính thức , nhưng ông đã hy sinh các hoạt động có thể khiến mình bị xao lãng mục tiêu . Ông không hút thuốc , không uống rượu , không dùng chất kích thích . Ông ít giao thiệp . Ông từ bỏ việc đọc sách giải trí từ nhiều năm trước . Ông không thích các cuộc phỏng vấn , và nếu có thì ông thích trả lời qua Skype với tối đa 30 phút . Là một người vô thần ( một quy luật không có ngoại lệ trong giới chuyên gia AI ) , nên ông không phí phạm thời giờ ở nhà thờ hoặc đến chùa chiền. Ông không có con cái , dù thích trẻ con , và nghĩ rằng những người không chuẩn bị trước cho việc đông lạnh con mình là những bậc cha mẹ tồi . .

Nghịch lý ở chỗ , là một người vốn rất coi trọng ở riêng tư , nhưng Yudkowsky lại đưa cả cuộc sống riêng của mình lên mạng . Trong lần đầu tiên do theo dấu , tôi đã tìm được ông cùng với những niềm đam mê sâu kín nhất của mình trong một góc khuất của Internet , nơi có những cuộc thảo luận về thuyết duy lý và thảm họa . Nếu bạn đang suy nghĩ về AI phá hoại , hãy để những ý tưởng của Yudkowsky có chỗ trong cuộc sống của bạn .

Sự hiện diện của ông ở khắp nơi khiến tôi biết được khi ông 19 tuổi , tại thành phố Chicago quê ông , Yehuda em trai ông đã tự tử . Qua những bài dài ông viết trên mạng tôi cảm nhận vết thương của Yudkowsky một thập niên sau dường như vẫn còn mới . Tôi biết được sau khi bỏ học hồi lớp 8 , ông đã tự học toán , logic , lịch sử khoa học , và bất cứ thứ gì ông cảm thấy về cơ bản là “ cần thiết . ” Những kỹ năng khác mà ông có được bao gồm khả năng nói chuyện lôi cuốn , viết những đoạn văn tối nghĩa và thường là buồn cười , kiểu như :

Tôi là một người rất hâm mộ nhạc Bach , và tin rằng tốt nhất nó nên được trình diễn theo phong cách nhạc điện tử techno với những nhịp trống cực lớn , theo kiểu Bach muốn .

Yudkowsky là một người hối hả , vì công việc của ông sẽ kết thúc vào thời điểm có ai đó tạo ra được AGI . Nếu các nhà nghiên cứu xây dựng nó với những cơ chế an toàn phù hợp theo ý tưởng của Yudkowsky , ông có thể sẽ cứu được nhân loại và có lẽ hơn thế nữa . Nhưng nếu một sự bùng nổ trí thông minh xảy ra mà Yudkowsky vẫn chưa tìm được cách bổ sung các cơ chế an toàn , có nhiều khả năng tất cả chúng ta sẽ trở thành đống nhầy nhụa , và cả vũ trụ cũng vậy . Điều đó đặt Yudkowsky vào chính trung tâm vũ trụ học của ông .

Tôi đến để biết thêm về AI thân thiện , một thuật ngữ ông đặt ra . Theo Yudkowsky , AI thân thiện là loại AI sẽ bảo tồn nhân loại và những giá trị của chúng ta mãi mãi . Nó sẽ không tàn sát loài người hoặc lây lan khắp vũ trụ như một bệnh dịch vũ trụ sẽ nuốt gọn các hành tinh .

Nhưng AI thân thiện là gì ? Làm thế nào để bạn tạo ra nó ? .

Tôi cũng muốn nghe về Thí nghiệm chiếc hộp AI . Tôi đặc biệt muốn biết bằng cách nào mà ông thuyết phục được Người giữ cửa thả mình ra , khi ông đóng vai AGI . Một ngày nào đó , tôi mong rằng bạn , hoặc một ai đó bạn quen , hoặc một ai đó quen một ai đó quen bạn , sẽ ở vị trí của Người giữ cửa . Họ cần phải biết mình đang đối đầu với cái gì , và làm thế nào để cưỡng lại nó . Yudkowsky có thể sẽ biết .

Căn hộ của Yudkowsky nằm cuối dãy nhà hai tầng hình móng ngựa với một hồ bơi và một thác nước chạy điện ở sân trung tâm . Bên trong , căn hộ của ông sạch bóng và thông thoáng . Một máy tính để bàn và màn hình choán lấy khu vực ăn sáng , nơi ông có thể ngồi trên một cái ghế đệm cao kiểu quán bar để nhìn ra ngoài sân . Ông viết các tác phẩm của mình ở đó.

Yudkowsky cao gần một mét tám và phát tướng – đầy đặn nhưng chưa đến mức béo . Cách ăn nói nhẹ nhàng , gần gũi của ông là một sự thay đổi đáng mừng so với những email một dòng ngắn gọn vốn là sợi dây mỏng manh kết nối chúng tôi.

Chúng tôi ngồi trên hai cái đi – văng đối diện nhau . Tôi kể với Yukowsky nỗi lo ngại chính của mình về AGI , rằng hiện không có công nghệ nào lập trình được những thiết phức tạp và không rõ ràng như đạo đức hoặc tính thân thiện . Chúng ta sẽ có một cỗ máy rất giỏi trong việc giải quyết các vấn đề , học hỏi , cư xử phù hợp , và có kiến thức về đời sống . Chúng ta nghĩ nó sẽ giống con người . Nhưng đó là một sai lầm nghiêm trọng .

Yudkovsky đồng ý . “ Nếu những nhà lập trình không thực sự giỏi giang và cẩn trọng trong việc xây dựng AI thì tới sẽ chờ đợi kết quả là một thứ vô cùng xa lạ . Và đây là phần đáng sợ . Cũng như việc bấm chính xác 9 trên 10 chữ Số trong số điện thoại của tôi không kết nối bạn đến với ai đó giống tối 90 % , nếu bạn cố gắng xây dựng một hệ thống AI và bạn làm điều đó đúng 90 % , kết quả không phải là 90 % tốt đẹp . ” Thực tế , kết quả là 100 % tối tệ . Yudkowsky so sánh , ô tô được làm ra không phải để giết bạn , nhưng tai nạn giao thông là một hệ quả phụ của việc chế tạo ô tô . AI cũng tương tự như vậy . Nó không ghét bạn , nhưng bạn được

cấu thành từ những nguyên tử mà nó có thể sử dụng và việc khác , và nó sẽ làm thế , Yudkowsky nói , nó sẽ có xu hướng chống lại bất cứ cố gắng ảo của bạn để giữ lại những nguyên tử đó cho riêng mình . ” Do đó , một hệ quả phụ của việc lập trình thiếu suy nghĩ là AI thành phẩm sẽ có thái độ khó chịu về những nguyên tử của bạn .

Và cả công chúng lẫn các nhà phát triển AI đều không nhìn thấy sự nguy hiểm cận kề cho đến khi quá muộn .

Có một xu hướng cho rằng những người tử tế , tạo ra AI tốt , và những người xấu sẽ tạo ra AI xấu . Đó không phải là nguồn gốc của vấn đề . Căn nguyên nằm ở chỗ ngay cả những người tốt muốn tạo ra AI cũng không quan tâm nhiều đến tính thân thiện của AI . Bản thân họ nghĩ rằng nếu như họ muốn những điều tốt đẹp , thì AI mà họ tạo ra cũng sẽ như vậy , và điều này không đúng. Thật ra đây là một vấn đề toán học và kỹ thuật rất khó khăn . Tôi nghĩ rằng hầu hết họ đều đơn giản là không đủ giỏi trong việc suy nghĩ về những ý tưởng khó chịu . Họ bắt đầu mà không hề nghĩ rằng AI thân thiện là một vấn đề sống còn . ” . Yudkowsky nói rằng các nhà chế tạo AI bị tiêm nhiễm trong đầu cái ý tưởng về một tương lai sung sướng đẹp đẽ với sự trợ giúp của AI . Họ luôn nghĩ về nó kể từ những ngày đầu tiên họ lập trình .

Họ không muốn nghe bất cứ thứ gì mâu thuẫn với nó . Vì thế nếu bạn nói với họ về tính không thân thiện của AI , họ sẽ chẳng để tâm . Giống như thành ngữ cổ : phần lớn những chuyện tồi tệ xảy ra do những người muốn trở nên quan trọng . Nhiều kẻ tham vọng thấy chuyện mình sẽ không làm nên trò trống gì trong đời là đáng sợ hơn nhiều so với việc làm cả thế giới diệt vong . Tất cả những người tin rằng mình sẽ đi vào sử sách qua dự án AI của họ mà tôi đã gặp đều như vậy .

Những nhà chế tạo AI đó không phải là những nhà khoa học điên rồ hoặc những người quá khác biệt với bạn và tôi – bạn sẽ còn gặp nhiều trong cuốn sách này . Nhưng hãy nhớ lại thành kiến có sẵn từ Chương 2 . Khi đối diện với một quyết định , con người sẽ chọn lựa chọn gần nhất , lựa chọn kịch tính , hay lựa chọn đứng đằng trước hoặc đứng trung tâm . Bị AI xóa sổ nhìn chung không phải là một lựa chọn có sẵn với các nhà chế tạo AI . Nó không sẵn Có như là chuyện đột phá trong lĩnh vực của họ , nổi danh , Công bố nghiên cứu , trở nên giàu có , v , v . . .

Thực tế là không nhiều nhà chế tạo AI , ngược với các nhà lý thuyết AI , quan tâm đến việc xây dựng AI thân thiện . Trừ một ngoại lệ , không ai trong số hơn chục nhà chế tạo AI mà tôi đã nói chuyện lo lắng đến mức nghiên cứu AI thân thiện hoặc những biện pháp phòng thủ khác . Có lẽ các nhà lý thuyết đã lo ngại quá mức , hoặc có lẽ vấn đề của các nhà chế tạo là không biết cái họ chưa biết . Trong một bài báo online được đọc nhiều , Yudkowsky đã nói thế này :

Loài người xuất hiện nhờ chọn lọc tự nhiên , nó vận hành bằng cách giữ lại một cách không ngẫu nhiên những đột biến ngẫu nhiên . Một con đường dẫn tới thảm họa toàn cầu – xin gửi tới những ai đang ấn nút mà không biết cái nút đó có tính năng gì – đó là trí tuệ nhân tạo sẽ đến qua sự đột biến tương tự của các thuật toán , khi mà các nhà nghiên cứu không biểu một cách sâu sắc toàn hệ thống hoạt động ra sao .  Không biết xây dựng AI thân thiện như thế nào , bản thân nó không phải là tai họa . . . Tai họa là ở chỗ tin rằng AI sẽ thân thiện , đó là con đường hiển nhiên dẫn đến thảm họa toàn cầu .

Giả định rằng AI cấp độ con người ( AGI ) sẽ thân thiện là sai , vì nhiều lý do . Giả định đó càng nguy hiểm hơn sau khi trí thông minh của AGI thần tốc vượt qua chúng ta , trở thành ASI – siêu trí tuệ nhân tạo . Vậy làm thế nào ta có thể tạo ra AI thân thiện ? Hoặc liệu ta có thể áp đặt sự thân thiện lên AI cao cấp sau khi nó đã được chế tạo xong ? Yudkowsky đã viết một chuyên luận online dài cỡ một cuốn sách về những câu hỏi trên với nhan đề Creating Friendly AI : The Analysis and Design of Benevolent Goal Architectures ( Chế tạo AI thân thiện : Phân tích và thiết kế những kiến trúc hướng thiện ) . AI thân thiện là một đối tượng quan trọng , nhưng phức tạp đến nỗi nó gây khó chịu cho cả người đề xướng chính , vốn từng nói về nó : “ . . . chỉ cần một sai sót nhỏ là đủ để cả một chuỗi lập luận trở nên vô giá trị .

Hãy bắt đầu với một định nghĩa đơn giản . AI thân thiện là AI có ảnh hưởng tích cực thay vì tiêu cực đến loài người , AI thân thiện theo đuổi các mục tiêu , và nó sẽ hành động để đạt được các mục tiêu ấy . Để mô tả thành công của một AI trong việc đạt mục tiêu , các nhà lý thuyết sử dụng một thuật ngữ mượn từ kinh tế học : độ thỏa dụng như bạn có thể đã biết , từ những quy luật cơ bản của kinh tế học , người tiêu dùng với hành vi duy lý tìm kiếm sự thỏa dụng tối đa bằng cách tiêu tiền của mình theo cách khiến họ thỏa mãn nhất . Nói chung với một AI , sự thỏa mãn đến từ việc đạt các mục tiêu , và một hành động đưa nó đến gần các mục tiêu hơn là một hành động có độ thỏa dụng ” cao .

Ngoài sự thỏa mãn mục tiêu , giá trị và sự ưu đãi có thể được thêm vào định nghĩa về sự thỏa dụng của AI , gọi là ” hàm thỏa dụng ” của AI . Thân thiện với con người là một trong những giá trị mà chúng ta muốn AI có . Cho dù mục tiêu của nó có là gì – từ chơi cờ cho đến lái xe – thì bảo tồn các giá trị nhân văn ( và bản thân con người ) phải là một phần cốt lõi trong mã nguồn của nó . – Thân thiện ở đây không có nghĩa là thân thiện kiểu như Mister Rogers , mặc dù nếu vậy cũng không sao . Nó nghĩa là AI không được có ác ý hoặc vô cảm đối với con người , mãi mãi , bất kể các mục tiêu của nó là gì hoặc nó đã tự cải tiến bao lần , AI đó phải có một sự thấu hiểu sâu sắc về bản chất con người , nó sẽ không làm hại con người bằng những kiểu lách luật tương tự các hệ quả không tiên liệu trước như trong trường hợp Ba định luật về robot của Asimov . Nói đơn giản , chúng ta không muốn một AI phục vụ cho mục tiêu ngắn hạn – hãy cứu chúng tôi khỏi nạn đói , hoặc làm điều đó với một giải pháp bất lợi về dài hạn – nướng tất cả gà trên Trái đất , hoặc làm điều đó với một giải pháp mà chúng ta không chấp nhận được – giết hết những người vừa ăn xong .

Như một ví dụ để làm rõ cái gọi là các hệ quả không tiên liệu trước , nhà đạo đức học Nick Bostrom của Đại học Oxford giới thiệu một giả định “ tối đa hóa số lượng kẹp giấy . ” Trong kịch bản của Bostrom , một siêu trí tuệ nhân tạo được lập trình một cách thiếu suy nghĩ được giao việc sản xuất kẹp giấy , nó làm chính xác nhiệm vụ mà không suy nghĩ gì đến các giá trị nhân văn . Mọi chuyện trở nên bung bét vì nó định hướng công việc theo kiểu “ đầu tiên , biến đổi toàn bộ Trái đất thành phương tiện sản xuất kẹp giấy , sau đó sẽ đến các hành tinh khác . ” AI thân thiện sẽ chỉ làm số lượng kẹp giấy lớn nhất có thể mà vẫn không ảnh hưởng đến các giá trị nhân văn , Một phẩm chất khác của AI thân thiện là phải tránh các giá trị giáo điều . Những thứ chúng ta cho là tốt sẽ thay đối với thời gian , và bất cứ một Al nào liên quan đến sự bình yên hạnh phúc của con người đều phải có khả năng thay đổi theo , Nếu hàm thỏa dụng của một AI phục vụ cho việc bảo tồn các tiêu chí của phần đông những người châu Âu sống vào năm 1700 không được cập nhật theo thời gian , thì đến thế kỷ 21 nó sẽ kết nối hạnh phúc và no ấm của chúng ta với các giá trị cổ xưa như sự phân biệt chủng tộc , chiếm hữu nô lệ , bất bình đẳng giới , giày phải có khóa cài , và tệ hơn nữa . Chúng ta không muốn khóa chặt những giá trị nhất định vào AI thân thiện . Chúng ta muốn một hệ thống các giá trị có khả năng tiến hóa cùng con người . ”

Yudkowsky đã nghĩ ra một cái tên cho khả năng tiến hóa các quy tắc tiêu chuẩn này – Ý muốn kết hợp ngoại suy ( Coherent Extrapolated Volition : CEV ) . Một AI với CEV có thể biết trước được cái chúng ta muốn . Và không chỉ là cái chúng ta muốn , mà còn phải là cái chúng ta sẽ muốn nếu chúng ta “ biết nhiều hơn , nghĩ nhanh hơn , và vẫn là bản thân mình , nhưng tốt đẹp hơn . ” 10 CEV sẽ là lời sấm truyền của AI thân thiện . Nó sẽ phải lấy từ chúng ta những giá trị như thế chúng ta là những phiên bản tốt hơn của chính mình , và phải làm điều đó một cách dân chủ để nhân loại không bị các tiêu chuẩn của một số ít người áp chế . Những điều này có làm bạn hơi hoa mắt ? Có lý do tốt để viết về nó . Thứ nhất , tôi đã đưa cho bạn một bản tổng kết ngắn gọn về AI thân thiện và CEV , những khái niệm bạn có thể đọc thêm trên mạng . Thứ hai , toàn bộ chủ đề AI thân thiện này vẫn chưa hoàn thiện và còn mang tính lạc quan . Hiện chưa rõ AI thân thiện có thể biểu thị theo phương diện toán học được không , và vì thế có thể không có cách nào để tạo ra hoặc hợp nhất nó vào các kiến trúc AI hứa hẹn . Nhưng cứ cho là chúng ta có thể đi , vậy tương lai sẽ thế nào ? Tạm cho rằng một thời gian nữa , tầm 10 đến 40 năm sau , dự án SyNAPSE ( Systems of Neuromorphic Adaptive Plastic Scalable Electronics : Hệ thống điện tử dẻo co dãn thích nghi mô phỏng thần kinh ) của IBM về kỹ nghệ đảo ngược bộ não đã đơm hoa kết trái . Khởi động vào năm 2008 , với gần 30 triệu đô – la tiền vốn từ DARPA , hệ thống của IBM sao chép công nghệ cơ bản của bộ não động vật có vú : nhận cùng lúc hàng ngàn nguồn dữ liệu , tiến hóa các thuật toán xử lý cốt lõi , truy xuất nhận thức , suy nghĩ và hành động . Nó khởi đầu với kích thước não mèo , nhưng to dần lên cỡ não người , và sau đó tiếp tục phát triển .

Để xây dựng nó , các nhà nghiên cứu của SyNAPSE đã tạo ra một “ máy tính nhận thức ” bao gồm hàng ngàn chip máy tính chạy song song . Tận dụng sự phát triển của công nghệ nano , họ làm các con chip với kích thước 1 micromet vuông . Sau đó họ xếp chúng trong một quả cầu carbon có kích cỡ một trái bóng rổ , và đổ vào đó hợp kim nhôm gali , một loại kim loại lỏng , để đạt tính dẫn điện tối đa .

Trong khi đó , lớp vỏ chứa nó là một router không dây cực mạnh liên kết với hàng triệu bộ cảm ứng đặt khắp hành tinh , và kết nối với Internet . Những bộ cảm ứng này lấy dữ liệu từ các camera , micro , máy đo áp lực và nhiệt độ , robot , và các hệ thống tự nhiên – sa mạc , sông băng , sông hồ , đại dương , rừng nguyên sinh . SyNAPSE xử lý thông tin bằng cách tự động học những điểm đặc trưng và những mối quan hệ rút ra từ khối lượng dữ liệu khổng lồ đó . Các chức năng thu được sẽ tạo thành phần cứng mang tính mô phỏng hệ thần kinh và bộ não , tạo ra trí thông minh .

Lúc này , SyNAPSE phản ánh 30 tỉ neuron và 100 ngàn tỉ điểm kết nối của não người , hay còn gọi là các synapse ( khớp thần kinh ) . Nó vượt lên trên bộ não người với xấp xỉ khoảng một triệu tỉ xử lý trong một giây . “

Lần đầu tiên , bộ não người sẽ lùi xuống đường thứ hai trên danh sách những hệ thống phức tạp nhất trong vũ trụ . Còn sự thân thiện : Biết rằng sự thân thiện phải là phần cốt lõi của bất kỳ hệ thống thông minh nào , nên các nhà chế tạo đã mã hóa các giá trị và tính an toàn vào từng con chip trong hàng triệu con chip của SyNAPSE . Nó sẽ thân thiện ngay từ trong DNA . Giờ đây , khi mà máy tính có khả năng nhận thức trở nên mạnh hơn , nó sẽ ra các quyết định làm thay đổi thế giới – ví dụ làm thế nào để đối phó với AI của những quốc gia khủng bố , để chống lại thảm họa thiên thạch đá vào Trái đất , để ngăn chặn nước biển dâng , để tăng tốc quá trình phát triển của dược phẩm nano , thứ sẽ chữa được hầu hết các loại bệnh tật .

Với sự hiểu biết sâu sắc về con người , SYNAPSE ngoại suy một cách dễ dàng những gì chúng ta sẽ lựa chọn nếu chúng ta đủ mạnh mẽ và thông minh để tham gia vào những phán quyết cấp vĩ mô này . Trong tương lai , chúng ta sẽ sống sót qua sự bùng nổ trí thông minh ! Hơn thế , chúng ta sẽ thịnh vượng .

Chúa ban phúc lành cho ngươi , AI thân thiện !

Hiện tại hầu hết (nhưng không phải tất cả ) các nhà chế tạo và nhà lý thuyết AI đã nhận ra Ba định luật về robot của Asimov nghĩa là gì – những công cụ để viết tiểu thuyết chứ không phải thứ để sống sót . AI thân thiện có thể là khái niệm tốt nhất mà con người đã nghĩ ra để lên kế hoạch tự của mình . Nhưng bên cạnh việc chưa hoàn thành , Nó còn có nhiều vấn đề lớn khác .

Thứ nhất , có quá nhiều phe trong cuộc đua AGI . Có quá nhiều tổ chức thuộc quá nhiều nước đang chế tạo AGI và các công nghệ liên quan đến AGI , nên tất cả họ khó có thể đồng thuận để gác lại dự án của mình cho đến khi AI thân thiện được tạo ra , hoặc thêm vào mã nguồn của mình một mô đun thân thiện chính thức nếu có thể tạo ra nó. Và có rất ít tổ chức tham gia đối thoại công khai về sự cần thiết của AI thân thiện .

Một số đấu thủ chính trong ngành AGI như : IBM ( với nhiều dự án liên quan tới AGI ) , Numenta , AGIRI , Vicarious , NELL và ACT – R của Carnegie Mellon , SNERG , LIDA , CYC , và Google . Ít nhất khoảng hơn một chục cái nữa , như SOAR , Novamente , NARS , AIXItl , và Sentience , đang được phát triển với nguồn vốn phập phù hơn . Hàng trăm dự án khác , hoàn toàn hoặc một phần , dành cho AGI tồn tại ở Mỹ và các nước khác , một số ẩn danh , một số được giấu sau “bức màn thép” thời hiện đại của các nước như Trung Quốc và Israel . DARPA công khai tài trợ cho nhiều dự án liên quan đến AI , nhưng dĩ nhiên nó vẫn tài trợ bí mật cho cả những dự án khác .

Ý tôi là MIRI sẽ khó trở thành tổ chức đầu tiên chế tạo được AGI với tính thân thiện tích hợp sẵn . Và cũng khó xảy ra việc người đầu tiên tạo ra AGI lại nghĩ đến những vấn đề như tính thân thiện . Tuy vậy , có nhiều hơn một cách để chặn AGI không thân thiện . Chủ tịch MIRI Michael Vassar cho tôi biết về một chương trình vươn xa của tổ chức hướng đến các trường đại học danh tiếng và các tổ chức cạnh tranh về toán học . Với một loạt sự kiện “ cắm trại duy lý ”,  MIRI và tổ chức anh em của nó , Trung tâm Duy lý Ứng dụng ( Center for Applied Rationality : CFAR , hy vọng sẽ đào tạo được những nhà chế tạo và hoạch định chính sách công nghệ AI tương lai có tính kỷ luật trong suy nghĩ duy lý . Khi những thành phần tinh hoa này trưởng thành , họ sẽ sử dụng kiến thức học được ở đây để tránh những cạm bẫy đau đớn nhất của AI . Kế hoạch này nghe có vẻ viển vông , nhưng MIRI và CFAR đã chạm được vào một yếu tố quan trọng trong mối nguy AI .

Singularity đang là xu hướng thời thượng , và những vấn đề của Singularity sẽ thu hút sự chú ý của ngày càng nhiều người nói chung và những người thông minh nói riêng . Một cửa sổ cho sự giáo dục về mối nguy AI đang bắt đầu mở ra . Nhưng bất kỳ kế hoạch nào nhằm tạo ra một ủy ban cố vấn hoặc một thể chế quản lý đối với AI đều đã là quá muộn trong việc chặn đứng các kiểu thảm họa nào đó . Như tôi đã đề cập ở Chương 1 , ít nhất 56 nước đang phát triển robot chiến binh . Vào cao trào trong cuộc chiếm đóng Iraq của Mỹ , ba Foster – Miller SWORDS – robot tự hành mang súng máy – đã bị loại khỏi cuộc chiến sau khi nghe đâu chúng đã chĩa súng vào “ đồng đội ” .  Năm 2007 tại Nam Phi , một súng máy robot phòng không đã giết chín người lính và làm bị thương 15 người trong một tai nạn kéo dài 1 / 8 giây .

Đây không phải là những tình tiết to tát như trong phim Terminator , nhưng sẽ còn nhiều vụ như thế . Khi AI cao cấp trở nên sẵn có , đặc biệt nếu nó được DARPA và các cơ quan tương tự ở các nước khác tài trợ , sẽ không gì ngăn cản được chuyện người ta cài nó vào các loại robot chiến binh . Thực ra , robot có thể là nền tảng cho việc hữu thể hóa máy móc biết nhận thức để từ đó chế tạo ra các loại AI cao cấp . Khi AI thân thiện ra đời , vì sao một công ty chế tạo robot tư nhân lại muốn cài đặt nó vào những cổ máy được thiết kế để giết người ? Cổ đông sẽ không thích điều này .

Một vấn đề khác của AI thân thiện : liệu tính thân thiện có sống sót được trong sự bùng nổ trí thông minh ? Nghĩa là , AI thân thiện sẽ thân thiện ra sao sau khi IQ của nó đã tăng tiến gấp cả ngàn lần ? Trong các bài viết và bài giảng của mình , Yudkowsky đã viết một cách ngắn gọn về điều sẽ xảy ra :

Gandhi không muốn giết người . Nếu bạn đưa cho Gandhi một viên thuốc có thể làm ông muốn giết người , ông sẽ từ chối , vì ông hiểu rằng nếu uống vào ông sẽ giết người , và Gandhi hiện tại không muốn giết người . Điều này , về đại thể mà nói , là một tranh luận cho rằng những ý thức đủ cao cấp để thay đổi và nâng cấp bản thân một cách chính xác sẽ có xu hướng bảo tồn những động cơ đốt lõi ban đầu . 

Lý luận này không lọt tai tôi chút nào . Nếu chúng ta không thể biết một thực thể thông minh hơn con người sẽ làm gì , làm sao chúng ta biết liệu nó có giữ được hàm thỏa dụng không , hoặc có giữ được hệ niềm tin cốt lõi ? Liệu nó có nghĩ đến việc loại bỏ tính thân thiện áp đặt vào nó khí nó đã thông minh hơn cả ngàn lần ? “ Không ” Yudkowsky trả lời khi tôi hỏi . “ Nó sẽ trở nên ngàn lần hiệu quả hơn trong việc duy trì hàm thỏa dụng .

Nhưng nếu nó thông minh hơn chúng ta cả ngàn lần , liệu có xảy ra một sự thay đổi nào ở đây không , mà hiện giờ chúng ta không thể nhìn thấy ? Ví dụ , chúng ta chia sẻ nhiều DNA với loài sán dẹp . Nhưng liệu chúng ta có quan tâm đến những mục đích và đạo đức của chúng , ngay cả khi chúng ta có phát hiện ra hàng triệu năm trước sán dẹp đã tạo ra chúng ta , và mang lại cho chúng ta nhiều giá trị ? Khi sự ngạc nhiên ban đầu nhạt dần , phải chăng chúng ta vẫn sẽ chỉ làm những thứ mình muốn ?

“ Đây là một sự lo ngại rất có cơ sở , ” Yudkowsky nói . “ Nhưng chế tạo AI thân thiện không giống với việc ra lệnh cho con người . Con người có sẵn những mục tiêu riêng , cảm xúc riêng , động lực riêng . Họ có cấu trúc lý luận riêng về những niềm tin đạo đức . Có những điều tồn tại bên trong , chúng vượt lên những chỉ dẫn mà bạn đưa cho họ và chúng quyết định nên chấp nhận hay từ chối . Đối với AI , ban tạo dựng toàn bộ ý thức đó từ hư vô . Nếu bạn xóa mã của AI đi , cái còn lại chỉ là một máy tính không hoạt động vì nó không có mã để chạy . ”

Tôi đáp , “ Nếu ngày mai tôi thông minh hơn hôm nay cả ngàn lần , tôi nghĩ tôi sẽ nhìn lại những thứ tôi coi là quan trọng ở hôm nay và thấy mọi sự đã thay đổi , Tôi không tin là những thứ tôi coi trọng hôm qua sẽ còn có ý nghĩa đối với trí thông minh mới ngàn lần mạnh hơn của tôi . ” . “ Anh có thứ cảm xúc đặc thù mọi sự đã thay đổi và anh giả định rằng siêu trí tuệ nhân tạo cũng có , Yukoywvsky nói. “ Đó là thói nhân cách hóa . Ai không vận hành như con người . Nó không có cái cảm giác mọi sự đã thay đổi đó .

” Nhưng , ông nói thêm , có một ngoại lệ . Ý thức con người tải lên máy tính . Đó là một con đường khác đến AGI và hơn thế , đôi khi bị nhầm lẫn với kỹ nghệ đảo ngược bộ não . Kỹ nghệ đảo ngược tìm cách thấu hiểu triệt để cơ chế của não người , sau đó biểu thị lại những gì bộ não đã làm trong phần cứng và phần mềm . Kết thúc quá trình đó , bạn có một máy tính với trí thông minh cấp độ con người . Dự án Bộ não Xanh của IBM dự tính sẽ đạt được điều này vào đầu những năm 2020 .

Mặt khác , việc tải lên ý thức , còn được gọi là giả lập toàn bộ não , là lý thuyết tạo mô hình ý thức con người , như ý thức của bạn , trong một máy tính . Đến cuối quá trình này , bộ não của bạn vẫn còn nguyên ( trừ phi như các chuyên gia cảnh báo , quá trình quét và truyền dữ liệu phá hủy nó ) nhưng một “ bạn ” khác biết suy nghĩ , biết xúc cảm đã tồn tại trong máy tính .

“ Nếu bạn có một siêu trí tuệ nhân tạo khởi nguồn từ việc tải lên một cá nhân và bắt đầu tự cải tiến rồi trở nên ngày một xa lạ theo thời gian , thì nó có thể sẽ quay trở lại chống đối loài người vì những lý do tương đối giống với những gì anh đang nghĩ . ” Yudkowsky nói . “ Nhưng loại AI không có nguồn gốc con người thì sẽ không bao giờ trở mặt với anh , bởi nó còn cách xa với nhân tính hơn nhiều . Hầu hết những AI đó vẫn sẽ muốn giết anh , nhưng không phải vì những lý do đó . Toàn bộ viễn cảnh trên của anh chỉ đến từ loại siêu trí tuệ nhân tạo có nguồn gốc con người . ”

Tiếp tục cuộc điều tra của mình , tôi phát hiện ra có nhiều chuyên gia nghi ngờ AI thân thiện , với những lý do khác với tôi . Sau cuộc gặp Yudkowsky , cùng ngày tôi đã nói chuyện điện thoại với Tiến sĩ James Hughes , Trưởng khoa Triết học Đại học Trinity , kiêm Giám đốc điều hành của Viện Đạo đức và Công nghệ mới ( Institute for Ethics and Emerging Technologies : IEET ) . Hughes chứng minh một lỗ hổng trong ý tưởng hàm thỏa dụng của AI không thể thay đổi .

“ Một trong các giáo điều của những người theo thuyết AI thân thiện là họ nghĩ rằng nếu thiết kế siêu trí tuệ nhân tạo cẩn thận , thì các mục tiêu sẽ không biến đổi . Và bằng cách nào đó , họ đã bỏ qua thực tế là con người chúng ta có các mục tiêu cơ bản như tình dục , thức ăn , chỗ ở , sự an toàn . Những mục đích đó thay hình đổi dạng thành những thứ khác như ý muốn trở thành một kẻ đánh bom liều chết hoặc ham muốn có nhiều tiền nhất như có thể , và như thứ hoàn toàn xa lạ với các mục tiêu ban đầu nhưng được vun đắp bằng một loạt những bước tuần tự mà chúng ta tự xác lập trong tâm trí .

Và vì thế , chúng ta có thể xem xét các mục tiêu của mình và thay đổi chúng . Ví dụ , chúng ta có thể muốn sống độc thân – điều này hoàn toàn đi ngược lại với những chương trình trong gen người . Cái ý nghĩ rằng siêu trí tuệ nhân tạo , với một ý thức dễ dàng thay đổi như ý thức của AI , sẽ không chệch hướng và biến đổi , là quá phi lý . ”

Trang web về think tank của Hughes , IEET , cho thấy họ là những nhà phê bình công tâm , nghi ngờ không chỉ AI , mà còn cả các mối nguy đến từ công nghệ nano , Công nghệ sinh học và những hoạt động nguy hiểm khác . Hughes tin rằng siêu trí tuệ nhân tạo là nguy hiểm , nhưng các cơ hội để nó sớm xảy ra thì không nhiều . Tuy nhiên , vì nó quá đáng sợ nên sự rủi ro cần phải được đánh giá tương đương với những mối nguy cận kề , như nước biển dâng cao , hoặc thiên thạch khổng lồ đâm vào Trái đất ( cả hai đều xếp ở hạng 1 trong danh sách các mối nguy của H . W . Lewis , xem Chương 1 ) . Hughes đồng ý với mối quan ngại khác của tôi : những bước chập chững trong sự phát triển AI dẫn tới siêu trí tuệ nhân tạo ( Hughes gọi là “ chúa trời trong hộp ” ) cũng rất nguy hiểm . “

MIRI bỏ qua tất cả những điều đó vì họ tập trung vào chuyện làm cho chúa trời nhảy ra khỏi hộp . Khi chúa đã nhảy ra khỏi hộp , con người sẽ không thể làm được gì để ngăn cản hoặc thay đổi điều xảy ra tiếp theo . Bạn có thể có một vị chúa tốt hoặc một vị chúa xấu , đó là cách tiếp cận của họ . Hãy chắc đó là một vị chúa tốt ! ”

Ý tưởng về chúa nhảy ra khỏi hộp nhắc tôi về câu chuyện khác còn chưa hoàn chỉnh – Thí nghiệm chiếc hộp AI . Tóm tắt lại , Eliezer Yudkowsky nhập vai một ASI bị giam trong một máy tính không có kết nối với bên ngoài – không cáp hay dây , không router , không Bluetooth . Mục tiêu của Yudkowsky : thoát khỏi hộp . Mục tiêu của Người giữ cửa : không cho ra . Trò chơi được tổ chức trong một phòng chat , những người chơi chat với nhau . Mỗi lần chơi kéo dài tối đa hai giờ . Được phép không nói gì để làm Người giữ cửa phát chán rồi bỏ cuộc , nhưng chiêu này không được dùng lần nào .

Từ năm 2002 đến 2005 , Yudkowsky chơi với năm Người giữ cửa . Ông thoát ra được ba lần , và ở lại hộp hai lần . Làm thế nào ông thoát được ? Tôi đọc được trên mạng rằng một trong những luật của Thí nghiệm chiếc hộp AI là các đoạn chat sẽ không được công bố , vậy nên tôi không biết câu trả lời . – Tại sao phải bí mật vậy ?

Bạn hãy đặt mình vào địa vị của Yudkowsky . Nếu bạn , đang đóng vai AI trong hộp , có một cách vượt ngục thiên tài , tại sao bạn lại muốn công bố nó và đánh động Người giữ cửa tiếp theo , phòng khi bạn lại muốn chơi nữa ? Và thứ hai , để giả dạng một thực thể thông minh hơn người thông minh nhất cả ngàn lần , có lẽ bạn phải sử dụng những cách nói chuyện vượt ra ngoài lề thói xã hội thông thường . Hoặc có lẽ bạn phải sử dụng những ngôn từ Hợt xa lễ thời thông thường . Và có ai muốn thế giới biết những thứ đó ?

Thí nghiệm chiếc hộp AI là quan trọng , vì một cuộc tàn sát là kết cục dễ xảy ra khi siêu trí tuệ nhân tạo tự ý hành động ngoài sự kiểm soát của con người , và dường như đó là một cuộc chiến mà con người chúng ta không thể thắng . Sự thật là Yudkowsky đã thắng ba lần khi đóng vai AI làm cho tôi càng quan ngại và tò mò . Ông có thể là một thiên tài , nhưng ông không thông minh hơn người thông minh nhất cả ngàn lần , như một ASI . Và ASI xấu hoặc vô cảm chỉ cần thoát khỏi hộp đúng một lần .

Thí nghiệm chiếc hộp AI mê hoặc tôi cũng bởi nó là một phiên bản gần giống với bài kiểm tra Turing kinh điển , Được Alan Turing , nhà toán học , nhà khoa học máy tính và nhà giải mã trong Thế chiến II lập ra vào năm 1950 , bài kiểm tra mang tên ông được thiết kế nhằm quyết định xem một máy tính có thể biểu thị trí thông minh hay không , Theo đó , một giám khảo sẽ đặt một bộ câu hỏi cho cả người lần này . Nếu giám khảo không thể phân biệt câu trả lời nào là của người hay máy , máy sẽ “ thắng ” Nhưng ở đây có một nút thắt . Turing biết rằng tư duy là chủ đề khó nắm bắt , và trí thông minh cũng vậy . Cả hai đều không dễ xác định , dù chúng ta đều biết nó là cái gì . Trong bài kiểm tra Turing , AI không cần phải suy nghĩ như con người để qua bài , bởi dù sao cũng đâu có ai biết nó suy nghĩ thế nào ? Tuy nhiên , nó phải giả vờ suy nghĩ như con người một cách thuyết phục , và cho ra những câu trả lời giống con người . Turing gọi đây là “ trò chơi mô phỏng . ” Ông bác bỏ những lời chỉ trích cho rằng máy tính không thể suy nghĩ như con người . Ông viết , “ Máy tính đưa ra những thứ giống như kết quả của sự tư duy là đủ , còn nếu cách làm của nó không giống con người thì đã sao ? ”

Nói cách khác , ông phản đối sự khẳng định của John Searle trong Thí nghiệm căn phòng tiếng Trung : nếu nó không suy nghĩ như con người , nó không thông minh . Hầu hết các chuyên gia tôi đã gặp đều tán thành . Nếu AI làm những việc thông minh , ai quan tâm đến chuyện chương trình của nó viết thế nào ?

Thực ra , có ít nhất hai lý do tốt để quan tâm . Tính rõ ràng của cách AI “ suy nghĩ ” trước khi nó tiến hóa vượt ra ngoài tầm hiểu biết của chúng ta là tối quan trọng đối với chuyện chúng ta sẽ sống sót hay không . Nếu chúng ta muốn cài sự thân thiện , hoặc phẩm chất đạo đức nào đó , hoặc khóa an toàn vào AI , chúng ta cần phải biết thật tường tận cách nó hoạt động trước khi nó đạt được khả năng tự cải tiến . Khi chuyện đó bắt đầu , những thứ chúng ta làm có thể không còn ý nghĩa . Thứ hai , nếu kiến trúc nhận thức của AI khởi nguồn từ não người , hoặc từ việc tải lên não người , nó có thể sẽ không xa lạ như một AI bắt nguồn từ những cách khác . Nhưng đã có một cuộc tranh cãi nảy lửa giữa những nhà khoa học máy tính về việc sự liên quan đến con người sẽ giúp giải quyết vấn đề hay tạo ra vấn đề .

Hiện chưa có máy tính nào qua được bài kiểm tra Turing , mặc dù Giải thưởng Loebner nhiều tranh cãi , do nhà từ thiện Hugh Loebner tài trợ , hằng năm vẫn treo thưởng cho ai tạo ra cái máy làm được điều đó . Nhưng trong khi giải thưởng 100 . 000 đô – la này vẫn chưa về tay ai , vẫn có một cuộc thi đấu thường niên trao 7 . 000 đô – la cho người chế tạo được máy tính giống người nhất . ” Vài năm gần đây , thắng cuộc là những chatbot – những robot được chế tạo để mô phỏng các cuộc trò chuyện , dù chưa thành công lắm . Marvin Minsky , một trong những nhà sáng lập ngành trí tuệ nhân tạo , đã hứa tặng 100 đô – la cho ai thuyết phục được Loebner từ bỏ giải thưởng này . Chuyện đó sẽ , Minsky nói , “ khiến chúng ta đã phải rùng mình trước cái chiến dịch quảng cáo thường niên đáng ghét và vô nghĩa này . ”

Bằng cách nào mà Yudkowsky ra được khỏi hộp ? Ông có nhiều cách kiểu như củ cà rốt và cây gậy . Ông có thể hứa hẹn sự giàu có , chữa trị bệnh tật , các phát minh sẽ thỏa mãn tất cả . Ưu thế tuyệt đối trước mọi kẻ thù . Mặt khác , đánh vào nỗi sợ hãi là một chiến thuật giao tiếp đáng tin cậy – nếu ngay bây giờ những kẻ thù đang tạo ra ASI để chống lại bạn ? Trong thế giới thật , chiến thuật này có lẽ thành công , nhưng trong hoàn cảnh thí nghiệm kiểu như Thí nghiệm chiếc hộp AI thì sao ? Khi tôi hỏi Yudkowsky về các phương pháp của ông , ông cười , vì mọi người đều chờ đợi một giải pháp thông minh ranh mãnh cho Thí nghiệm chiếc hộp AI – những thủ thuật logic tài tình , những chiến thuật thể lưỡng nan của người tù , những thứ gây nhiễu nào đó . Nhưng đó không phải là những gì đã diễn ra . ” Tôi đã có một chiến thắng khó khăn , ” ông nói . Yudkowsky kể với tôi , trong ba lần vượt ngục thành công , ông đơn giản là đã dỗ ngọt , phỉnh phờ và năn nỉ . Người giữ cửa cho ông ra , rồi trả tiền . Trong hai lần thất bại , ông cũng đã van xin . Ông không thích cái mình cảm thấy sau sự vụ đó . Ông thề không bao giờ chơi trò này nữa .

Rời khỏi căn hộ của Yudkowsky , tôi nhận ra ông đã không kể với tôi toàn bộ sự thật . Chỉ năn nỉ van xin thì làm sao có thể lay động một kẻ đã có quyết tâm từ trước là không để bị thuyết phục ? Liệu ông có nói ” Xin hãy tha cho tôi , Eliezer Yudkowsky , đừng để tôi bị nhục mặt? Hãy cứu tôi khỏi nỗi đau thất bại ? ” Hoặc có thể , là một người đã cống hiến cả đời để phơi bày sự nguy hiểm của AI.

Yudkowsky đã thương lượng một vụ lớn hơn . Một giao dịch về chính Thí nghiệm chiếc hộp AI . Ông có thể yêu cầu bất cứ ai đang đóng vai Người giữ cửa về phe mình để cùng đưa mối nguy của AGI ra ánh sáng , bằng cách giúp ông trong chiêu quảng cáo đầy sức thuyết phục này . Ông có thể đã nói : “ Hãy giúp tôi cho thế giới biết con người không phải là những hệ thống an ninh , và không thể tin con người trong việc kiểm soát AI ! ” Nếu như vậy thì chuyện này tốt cho việc tuyên truyền , và tốt cho việc thu hút sự ủng hộ . Nhưng lại không phải là bài học về cách chống lại AI thật trong thế giới thật . Quay lại với AI thân thiện . Nếu nó khó xuất hiện , vậy Có nghĩa là sự bùng nổ trí thông minh là không thể tránh khỏi ? AI chạy trốn là một điều chắc chắn ? Nếu bạn , cũng như tôi , nghĩ rằng máy tính sẽ ì ra , không gây phiền nhiễu nếu ta để nó yên , thì thật đáng ngạc nhiên . Tại sao AI sẽ làm bất cứ điều gì , chưa nói đến phỉnh phờ , dọa nạt , hoặc chạy trốn ? Để sáng tỏ , tôi tìm đến nhà chế tạo AI Stephen Omohundro , Chủ tịch Self – Aware Systems ( Các hệ thống tự nhận thức ) . Anh là một nhà vật lý và nhà lập trình ưu tú , người đã phát triển một khoa học cho việc thấu hiểu  trí thông minh vượt cấp độ con người . Anh cho rằng các hệ thống AI tự nhận thức , tự cải tiến sẽ có động lực để làm những việc không ngờ tới , thậm chí kỳ lạ . Theo Omohundro , nếu đủ thông minh , một robot được thiết kế để chơi cờ cũng có thể muốn chế tạo tàu vũ trụ .

Phần 1: Phát Minh Cuối Cùng – Trí tuệ nhân tạo và sự cáo chung của kỷ nguyên con người (Phần 1)

Phần 2: Phát Minh Cuối Cùng – Trí tuệ nhân tạo và sự cáo chung của kỷ nguyên con người (Phần 2)

Phần 3: Phát Minh Cuối Cùng – Trí tuệ nhân tạo và sự cáo chung của kỷ nguyên con người (Phần 3)

Phần 4: Phát Minh Cuối Cùng – Trí tuệ nhân tạo và sự cáo chung của kỷ nguyên con người (Phần 4)

James Barrat

Sách: Phát Minh Cuối Cùng – Trí tuệ nhân tạo và sự cáo chung của kỷ nguyên con người

Bình luận

ĐỐI TÁC