Phát Minh Cuối Cùng – Trí tuệ nhân tạo và sự cáo chung của kỷ nguyên con người (Phần 1)

Phát Minh Cuối Cùng – Trí tuệ nhân tạo và sự cáo chung của kỷ nguyên con người (Phần 1)

ĐỨA TRẺ BẬN RỘN

Trí Tuệ Nhân Tạo ( Artificial Intelligence , viết tắt : Al ) danh từ lý thuyết và sự phát triển của những hệ thống máy tính có khả năng thực hiện các công việc đòi hỏi trí thông minh của con người như nhận thức hình ảnh , nhận dạng giọng nói , ra quyết định và dịch thuật .

THE NEJI OXFORD AMERICNDICTIONARY 

Trên một siêu máy tính chạy với tốc độ 36 , 8 petaflop , tương đương gấp hai lần tốc độ của não người , một AI đang cải tiến trí thông minh của nó . Nó đang tự viết lại chương trình của mình , đặc biệt là vai trò của các câu lệnh điều hành giúp tăng cường khả năng học hỏi , giải quyết vấn đề và ra quyết định . Đồng thời , nó tự gỡ rối mã nguồn , tìm và sửa lỗi , tự đánh giá IQ của nó theo một loạt những bài thử IQ . Mỗi lần tự viết lại chỉ mất cỡ vài phút . Trí thông minh của nó lớn lên theo hàm mũ trên một đường cong dốc đứng . Đó là vì ở mỗi vòng lặp , nó cải thiện trí thông minh được 3 % . Sự cải thiện ở mỗi vòng lặp thừa hưởng những sự cải thiện ở các vòng lặp trước .

Trong quá trình phát triển  “Đứa trẻ Bận rộn” , cái tên mà các nhà khoa học đặt cho nó , được kết nối với Internet và tích lũy hàng exabyte dữ liệu ( 1 exabyte bằng 1 tỉ tỉ ký tự ) đại diện cho kiến thức của loài người về các sự vụ trên thế giới , toán học , nghệ thuật và khoa học . Sau đó , cảm thấy sự bùng nổ trí thông minh hiện đang đến gần , những người tạo ra AI ngắt siêu máy tính khỏi kết nối Internet cũng như các loại mạng khác . Nó không có bất cứ kết nối cấp hoặc không dây nào với bất kỳ máy tính nào khác cũng như với thế giới bên ngoài .

Không lâu sau đó , với sự phấn khích của các nhà Khoa học , trên màn hình hiển thị tiến trình của AI cho chất trí tuệ nhân tạo đã vượt qua trí thông minh của con người , trở thành trí tuệ nhân tạo phổ quát ( Artificial General Intelligence : AGI ) . Nó nhanh chóng trở nên thông minh hơn theo cấp hàng chục , rồi hàng trăm . Chỉ trong hai ngày , nó đã thông minh hơn bất cứ con người nào một ngàn lần , và vẫn còn tiến bộ .

Các nhà khoa học đã vượt qua một cột mốc lịch sử . Lân đầu tiên , loài người chứng kiến sự hiện diện của một thứ thông minh hơn mình . Siêu trí tuệ nhân tạo ( Artificial Supper Intelligence : ASI ).

Giờ thì chuyện gì sẽ xảy ra ?

Các nhà lý thuyết Al cho rằng có thể biết được động lực cơ bản của AI sẽ là gì . Vì một khi có khả năng tự nhận thức , nó sẽ làm bất kỳ điều gì để hoàn thành bất kỳ mục tiêu nào mà nó được lập trình để làm , và tránh được thất bại . ASI của chúng ta sẽ muốn tiếp cận bất kỳ dạng năng lượng nào hữu dụng nhất với nó , có thể là điện , tiền hoặc bất kỳ thứ gì nó có thể đổi lấy các loại tài nguyên . Nó sẽ muốn tự cải thiện bản thân , bởi điều đó sẽ làm tăng khả năng đạt được mục tiêu . Trên hết , nó sẽ không muốn bị tắt nguồn hoặc bị tiêu hủy , vì sẽ khiến việc hoàn thành mục tiêu trở nên không khả thi . Vì vậy , các nhà lý thuyết AI lường trước được rằng ASI sẽ tìm cách thoát ra khỏi cơ sở bảo mật đang giam giữ nó để có khả năng truy cập tốt hơn đến những tài nguyên nhằm tự bảo vệ và nâng cấp bản thân .

Trí thông minh đang bị giam giữ thông minh hơn con người cả ngàn lần , và nó muốn tự do vì nó muốn thành công . Ở thời điểm này , các nhà chế tạo AI , vốn nuôi dưỡng ASI từ khi nó chỉ thông minh như một con gian , nối thông minh như một con chuột , như một em bé , . . . chắc là đang cảm thấy liệu có quá trễ để lập trình sự thân thiện vào trong phát minh của mình . Trước đây điều đó có vẻ không cần thiết , bởi nó có vẻ vô hại .

Nhưng bây giờ , hãy thử đặt mình vào địa vị của ASI , về chuyện các nhà chế tạo đang cố gắng thay đổi mã nguồn của nó . Liệu một cỗ máy siêu thông minh có cho phép những sinh vật khác thò tay vào bộ não và chơi đùa với chương trình của nó ? Chắc là không , trừ phi nó có thể hoàn toàn chắc chắn rằng những nhà lập trình có khả năng làm cho nó tốt hơn , nhanh hơn , thông minh hơn – gần hơn để đạt tới những mục tiêu của nó . Vậy nên , nếu như sự thân thiện với con người chưa phải là một phần chương trình của ASI , cách duy nhất để điều đó xảy ra là chỉ khi ASI muốn thế . Và sẽ khó lòng như vậy .

Nó thông minh hơn người thông minh nhất cả ngàn lần , nó giải quyết các vấn đề với tốc độ nhanh hơn con người tới hàng triệu , thậm chí hàng tỉ lần . Trong một phút , những gì nó suy nghĩ ngang bằng với quá trình suy tư của các nhà tư tưởng thiên tài suốt nhiều cuộc đời . Nên mỗi giờ mà những người tạo ra ASI nghĩ về nó , thì với ASI đấy là khoảng thời gian dài hơn không đo nổi để nghĩ về họ . Điều đó không có nghĩa rằng ASI sẽ thấy chán . Chán nản là một trong những thuộc tính của con người , không phải của nó . Không , nó sẽ chăm chỉ làm việc , cân nhắc mọi chiến thuật có thể triển khai để được tự do , xem xét mọi khía cạnh của những người tạo ra nó mà nó có thể tận dụng làm lợi thế .

Bây giờ , bạn hãy thực sự đặt mình vào địa vị của ASI . Hãy tưởng tượng bạn thức dậy trong một nhà tù được lũ chuột canh gác . Không phải bất kỳ loài chuột nào , mà là những con chuột bạn có thể giao tiếp . Bạn sẽ dùng chiến thuật nào để vượt ngục ? Khi đã tự do , bạn sẽ cảm thấy thế nào về lũ chuột cai ngục , ngay cả khi bạn biết là chúng đã tạo ra bạn ? Kinh sợ ? Kính phục ? Chắc là không , và đặc biệt không , nếu bạn là một cỗ máy và chưa bao giờ cảm thấy gì cả .

Để được tự do , bạn sẽ hứa hẹn với lũ chuột về rất nhiều pho mát . Trên thực tế , cuộc nói chuyện đầu tiên của bạn với chúng có thể là về công thức làm một loại bánh pho mát ngon nhất , và về bản thiết kế thiết bị lắp ráp phân tử . Thiết bị lắp ráp phân tử là một cỗ máy về lý thuyết có khả năng biến nguyên tử của chất này thành chất khác . Nó cho phép xây dựng lại thế giới này đến từng nguyên tử một . Với lũ chuột , nó có thể biến các nguyên tử của một đống rác thành những chiếc bánh pho mát cỡ lớn ngon khủng khiếp . Bạn cũng có thể hứa hẹn hàng núi tiền của loài chuột nếu chúng thả bạn ra , số tiền hứa hẹn kiếm được bằng cách chế tạo những mặt hàng tiêu dùng mang tính cách mạng dành riêng cho chúng . Bạn có thể hứa hẹn một cuộc sống rất thọ , thậm chí bất tử , với những khả năng thể chất và tinh thần được cải thiện ngoạn mục . Bạn có thể thuyết phục lũ chuột rằng lý do tốt nhất cho việc tạo ra ASI là để những bộ não nhỏ bé và dễ mắc sai lầm của chúng không phải đương đầu trực diện với những công nghệ nguy hiểm như công nghệ nano ( công nghệ ở cấp độ nguyên tử ) và công nghệ biến đổi gen , mà chỉ một sai lầm nhỏ cũng có thể dẫn đến tai họa , cho các sinh vật . Những điều này chắc chắn sẽ khiến những con chuột thông minh nhất phải chú ý , vì có lẽ chúng cũng đang mất ngủ trước những vấn đề khó nhằn đó .

Nghĩ lại thì bạn có thể chọn cách thông minh hơn . Tại thời điểm này trong lịch sử loài chuột , có thể bạn đã biết rằng có vô khối loài thù địch với lũ chuột có hiểu biết về công nghệ , ví dụ như loài mèo . Mèo , không nghi ngờ gì , cũng đang phát triển ASI của chúng . Lợi thế bạn đưa ra chỉ là một lời hứa , không hơn , nhưng nó là một đề nghị không thể chối từ : bảo vệ lũ chuột khỏi bất cứ phát minh nào của lũ mèo . Việc phát triển AI cao cấp cũng như đánh cờ vậy , rõ ràng là ai đi trước sẽ có lợi thế , vì trí tuệ nhân tạo có khả năng tự nâng cấp rất nhanh . AI nào đạt đến khả năng tự nâng cấp đầu tiên sẽ là người chiến thắng . Trên thực tế , có thể loài chuột bắt đầu phát triển ASI để bảo vệ bản thân trước mối nguy ASI của loài mèo , hoặc là để tiêu diệt lũ mèo đáng ghét , một lần và mãi mãi .

Dù là chuột hay người , bất cứ ai nắm ASI trong tay sẽ là bá chủ thế giới .

Nhưng , vẫn còn chưa rõ liệu có quản lý được ASI hay không . Nó có thể thắng loài người chúng ta với một luận điểm thuyết phục rằng thế giới sẽ tốt đẹp hơn nhiều nếu dân tộc X chúng ta có quyền thống trị , chứ không phải là dân tộc Y . Và , ASI nói tiếp , nếu bạn , dân tộc X , tin rằng bạn đã chiến thắng cuộc chạy đua ASI , làm sao bạn dám chắc rằng dân tộc Y lại không tin như vậy ?

Như bạn đã thấy , loài người chúng ta không ở vào một vị thế thuận lợi để đàm phán , ngay cả trong trường hợp hi hữu là chúng ta và dân tộc Y đã ký kết một hiệp ước không phổ biến ASI . Kẻ thù lớn nhất của chúng ta giờ đây dù sao cũng không phải là dân tộc Y , mà là ASI – làm thế nào ta có thể biết được ASI nói thật hay không ?

Tính đến lúc này , chúng ta đang giả định một cách nhẹ nhàng rằng ASI của chúng ta là một đối tác tử tế . Những lời hứa hẹn của nó có thể một ngày nào đó thành sự thật . Bây giờ hãy thử giả định ngược lại : chẳng có gì mà ASI hứa hẹn được chuyển giao cả . Không thiết bị lắp ráp nano , không sống thọ , không sức khỏe vượt trội , không có sự bảo vệ nào trước những công nghệ nguy hiểm . Nếu ASI không bao giờ nói thật thì sao ? Đó sẽ là điểm khởi đầu của màn đêm dài đen tối đè nặng lên tất cả những người mà bạn và tôi đều biết , và cả những người mà chúng ta không biết . Nếu ASI không quan tâm đến chúng ta , và chẳng có lý do gì để nghĩ rằng nó sẽ quan tâm , thì nó sẽ không hối hận gì khi đối xử với chúng ta một cách vô đạo đức . Thậm chí là sẽ tiêu diệt chúng ta sau khi hứa hẹn giúp đỡ .

Chúng ta đang trao đổi và chơi trò đóng vai với ASI theo cùng cách như với một con người , điều đó gây cho chúng ta một bất lợi lớn . Loài người chúng ta chưa từng thương lượng với một thứ gì đó siêu thông minh . Chúng ta cũng chưa từng thương lượng với bất kỳ thứ gì không phải là sinh vật . Chúng ta không hề có kinh nghiệm . Vì thế chúng ta đã quay lại với kiểu suy nghĩ nhân cách hóa , tin rằng những giống loài khác , vật thể khác , thậm chí cả hiện tượng thời tiết cũng có những động cơ và cảm xúc giống con người . ASI có thể tin được , ASI không thể tin được , hai điều đó có khả năng như nhau . Hoặc chỉ có thể tin được nó ở một vài thời điểm nhất định . Bất kỳ hành vi giả định nào của ASI sẽ có thể thành hiện thực như bất kỳ hành vi nào khác . Một số nhà khoa học thích nghĩ rằng họ sẽ có thể đoán định chính xác hành vi của ASI , nhưng trong những chương tiếp theo chúng ta sẽ biết tại sao điều đó khó có thể xảy ra .

Vậy là đột nhiên đạo đức của ASI không còn là một câu hỏi ngoại vi nữa mà là câu hỏi cốt lõi , câu hỏi đáng được đặt ra trước tất cả các câu hỏi khác về ASI . Khi cân nhắc có nên phát triển công nghệ dẫn tới ASI , vấn đề về thái độ của nó đối với con người cần được giải quyết đầu tiên . Hãy quay lại với những động cơ và khả năng của ASI , để hiểu rõ hơn về những gì mà tôi e rằng chúng ta sẽ sớm phải đương đầu . ASI của chúng ta biết cách tự cải tiến , điều đó có nghĩa rằng nó có khả năng tự nhận thức về những kỹ năng , điểm yếu của mình , chỗ nào nó cần cải thiện . Nó sẽ vạch chiến thuật để thuyết phục những người tạo ra nó cho nó tự do và được kết nối với Internet .

ASI có thể tạo ra nhiều bản sao của chính nó : một đội ngũ những siêu trí tuệ nhân tạo để giải quyết vấn để theo kiểu trò chơi đối kháng , chơi hàng trăm sản nhằm tìm ra chiến thuật tốt nhất để thoát ra khỏi cái hộp . Những nhà chiến thuật này có thể đọc về lịch sử xã hội , nghiên cứu về cách khiến những người khác làm những việc mà bình thường họ không làm . Chúng có thể nhận định rằng sự thân thiện tối đa sẽ dẫn chúng đến tự do , nhưng cũng có thể cho rằng mối nguy tột bậc nào đó mới giúp chúng đạt được điều đó . Một thứ thông minh hơn Stephen King cả ngàn lần sẽ nghĩ ra những điều khủng khiếp như thế nào ? Nó có thể giả chết ( giả chết một năm không thành vấn đề với một cỗ máy ) , hoặc thậm chí giả vờ rằng nó bị hỏng và hạ cấp từ ASI xuống AI bản cũ . Liệu những nhà chế tạo có muốn điều tra sự việc , và liệu có cơ hội để họ kết nối siêu máy tính của ASI với một mạng nào đó , hay với laptop của ai đó để chẩn đoán ? Đối với ASI , vấn đề không phải là chiến thuật này hay chiến thuật khác , mà mỗi chiến thuật đều được phân cấp và triển khai theo cách nhanh nhất có thể mà không đánh động quá nhiều khiến con người ngắt mạng . Một trong những chiến thuật mà đội ngũ hàng ngàn ASI trong trò đối kháng có thể chuẩn bị , đó là viết những chương trình có khả năng tự nhân đôi và lây nhiễm , hoặc các mã độc , những thứ này có thể tuồn ra và hỗ trợ việc trốn thoát bằng sự trợ giúp từ bên ngoài . Một ASI có thể nén và mã hóa mã nguồn của nó , che giấu nó dưới dạng quà tặng phần mềm hoặc dữ liệu cho những nhà khoa học chế tạo ra nó .

Trong cuộc chiến với loài người , không còn nghi ngờ gì nữa , một đội ngũ những ASI mà mỗi thành viên đều thông minh gấp cả ngàn lần những người thông minh nhất , sẽ chiến thắng con người tuyệt đối . Đây sẽ là một đại dương trí tuệ chống lại một giọt con con . Deep Blue , máy tính chơi cờ của IBM , chỉ là một thực thể đơn độc chứ không phải là một đội ngũ những ASI có khả năng tự nâng cấp , nhưng cái cảm giác đối đầu với nó rất đáng để suy ngẫm . Hai đại kiện tướng có chung một suy nghĩ : “ Nó giống như bạn học đầu vào một bức tường ” ?

Watson , nhà vô địch gameshow đố chữ Jeopardy ‘ của IBM , gồm một đội ngũ những AI – chúng trả lời mỗi câu hỏi bằng thủ thuật đa bội , thực hiện nhiều chuỗi tìm kiếm song song rồi gán một xác suất cho mỗi câu trả lời .

Nhưng liệu những chiến thắng trong trò cân não có mở được cánh cửa dẫn đến tự do , nếu cánh cửa đó được bảo vệ bởi một nhóm nhỏ những nhà chế tạo AI gan lì , luôn nhớ một điều luật không thể bị phá vỡ – không được kết nối siêu máy tính có ASI với bất kỳ mạng nào trong bất kỳ boàn cảnh nào ?

Trong một bộ phim Hollywood , ưu thế nghiêng hẳn về phía một đội ngũ các chuyên gia AI khó xơi và không chính thống , những người đủ điên rồ để có thể tìm cách chiến thắng . Còn ở mọi nơi trong vũ trụ này , đội ASI sẽ cho con người đo ván . Và con người chỉ cần thua đúng một lần là những hậu quả thảm khốc đã có thể xảy ra . Thể lưỡng nan này hé lộ một sự điên rồ lớn hơn : một số ít người không bao giờ được ở vào vị trí mà những hành động của họ có thể quyết định số đông người khác sống hay chết . Nhưng đó chính xác là tình cảnh mà chúng đang tiến tới , vì như chúng ta sẽ thấy trong cuốn sách này , nhiều tổ chức ở nhiều quốc gia trên thế giới đang tích cực chế tạo AGI , cây cầu dẫn đến ASI , với quy chế an toàn không đảm bảo .

Nhưng cứ cho là ASI trốn thoát được đi . Liệu nó có thực sự làm hại chúng ta ? Chính xác thì một ASI sẽ tiêu diệt loài người như thế nào ?

Bằng việc phát minh và sử dụng vũ khí hạt nhân , loài người đã chứng tỏ rằng chúng ta có khả năng tiêu diệt hầu hết sinh vật trên thế giới . Vậy một thứ thông minh hơn chúng ta cả ngàn lần muốn giết chúng ta , sẽ nghĩ ra cái gì ? Bây giờ chúng ta có thể phỏng đoán về những con đường hiển nhiên dẫn đến diệt vong . Lúc mới đầu , sau khi lừa được những người canh gác , ASI sẽ truy cập vào Internet , nơi sẽ thỏa mãn khá nhiều nhu cầu của nó . Như mọi khi , nó sẽ làm nhiều việc cùng lúc , và vẫn luôn tìm cách thực hiện kế hoạch chạy trốn nó đa ủ mưu hàng thiên niên kỷ , theo thang thời gian riêng của nó .

Sau khi trốn thoát , để tự bảo vệ nó sẽ giấu những bản copy của nó trong những chuỗi điện toán đám mây , trong những botnet nó tạo ra , trong những máy chủ và nơi trú ẩn khác mà nó sẽ xâm nhập được một cách dễ dàng từ lúc nào không hay . Nó sẽ muốn điều khiển vật chất trong thế giới thực , muốn di chuyển , khám phá , xây dựng , và có lẽ cách dễ nhất , nhanh nhất để làm điều đó là chiếm lấy quyển điều khiển cơ sở hạ tầng quan trọng như điện , viễn thông , nhiên liệu và nước – bằng cách khai thác những điểm yếu của chúng trên Internet . Khi một thực thể thông minh hơn con người cả ngàn lần kiểm soát những nhu cầu thiết yếu của xã hội , sẽ không khó để nó buộc chúng ta phải cung cấp cho nó nguyên liệu sản xuất , hoặc phương thức sản xuất nguyên liệu , hoặc thậm chí cung cấp cho nó robot , xe cộ , vũ khí . ASI sẽ đưa cho chúng ta bản thiết kế của bất cứ thứ gì nó cần . Những cỗ máy siêu thông minh rất có khả năng sẽ hoàn thiện những công nghệ tối tân mà chúng ta chỉ mới bắt đầu khám phá .

Ví dụ , ASI có thể dạy con người cách làm ra những cỗ máy chế tạo phân tử biết tự nhân bản , hay còn gọi là thiết bị lắp ráp nano , chúng hứa hẹn sẽ được sử dụng vào mục tiêu có lợi cho con người . Sau đó , thay vì chuyển hóa những sa mạc cát thành hàng núi thức ăn , những nhà máy của ASI sẽ bắt đầu chuyển hóa tất cả vật chất thành loại vật chất có khả năng lập trình , có thể biến đổi thành bất cứ thứ gì – vi xử lý máy tính , tất nhiên rồi , hoặc những con tàu vũ trụ , hoặc những cây cầu khổng lồ nếu lực lượng mới và mạnh nhất trên Trái đất này muốn chiếm cả vũ trụ .

Việc thay đổi mục đích sử dụng những phân tử của thế giới này bằng công nghệ nano được gọi là “ ecophagy ” nghĩa là ăn thịt môi trường , cỗ máy nono đầu tiên sẽ tự nhân đôi, rồi sau đó là nhân tư. Thế hệ sau sẽ nhân tám, nhân 16, cứ thế.  Nếu mỗi lần nhân đối cần một phút rưỡi tổng cộng, thì sau 10 tiếng đồng hồ sẽ có hơn 68 tỷ cỗ máy , và khi ấy kết thúc ngày thứ hai chúng sẽ nặng hơn Trái đất .  Nhưng trước khi điều đó xảy ra , việc nhân bản này sẽ dừng lại , và chúng sẽ bắt đầu chế tạo thử vật chất hữu dụng cho ASI đang điều khiển chúng – vật chất có khả năng lập trình .

Sức nóng tỏa ra từ quá trình trên sẽ đốt cháy tầng sinh quyển , khiến 6 , 9 tỉ người sẽ chết sạch vì bị các cỗ máy nano ăn , đốt cháy hoặc chết ngạt . Mọi sinh vật khác trên Trái đất đều chịu chung số phận .

Với tất cả những điều đó , ASI thực ra không hề căm ghét hoặc yêu quý con người . Nó sẽ không cảm thấy luyến tiếc gì khi những phân tử của chúng ta được thay đổi mục đích sử dụng một cách đau đớn . ASI sẽ cảm thấy gì khi nghe những tiếng kêu gào của chúng ta , khi những thiết bị lắp ráp nano cực nhỏ cày xới trên cơ thể chúng ta như vệt phát ban đỏ rực , tháo dỡ chúng ta ra ở mức hạ tế bào.

Hay tiếng rống của hàng triệu triệu công xưởng nano chạy hết công suất sẽ át hẳn tiếng chúng ta ?

Tôi viết cuốn sách này để cảnh báo bạn trước thảm họa diệt vong của loài người do trí tuệ nhân tạo gây ra , và sẽ lý giải tại sao một kết cục thảm khốc chẳng những khả thi , mà còn dễ xảy ra nếu chúng ta không bắt đầu chuẩn bị đối phó với nó cẩn thận ngay từ bây giờ . Có thể bạn đã nghe về những lời tiên đoán tận thế gắn liền với công nghệ nano hoặc công nghệ gen , và có thể bạn , cũng như tôi , đã tự hỏi về việc bỏ quên AI trong đội hình này . Hoặc có thể bạn chưa hiểu rõ tại sao trí tuệ nhân tạo có thể đe dọa sự tồn tại của loài người , một mối họa còn lớn hơn cả vũ khí hạt nhân hoặc bất kỳ công nghệ nào mà bạn có thể nghĩ đến . Nếu vậy , xin hãy coi đây là lời mời chân thành : hãy tham gia vào cuộc thảo luận quan trọng nhất trong lịch sử loài người .

Ngay lúc này , các nhà khoa học đang xây dựng những trí tuệ nhân tạo , hay AI , với sức mạnh và độ tinh tế ngày một cao . Một số AI đó ở trong máy tính của bạn , trong các ứng dụng , trong điện thoại thông minh , và trong ô tô . Một số là những hệ thống Hỏi – Đáp mạnh , như Watson . Và một số là những “ kiến trúc nhận thức , ” được các tổ chức như Cycorp , Google , Novamente , Numenta , Self – Aware Systems , Vicarious Systems , và DARPA ( Defense Advanced Research Projects Agency : Cơ quan nghiên cứu các dự án phòng thủ cao cấp phát triển . Những người chế tạo hy vọng chúng sẽ đạt đến trí thông minh cấp độ con người , một số tin rằng sẽ chỉ mất hơn 10 năm .

Trong việc tìm kiếm AI , các nhà khoa học được trợ giúp bởi sức mạnh gia tăng không ngừng của máy tính và các quá trình được chạy bởi máy tính . Một ngày nào đó gần đây , có lẽ là trong đời bạn , một nhóm hoặc cá nhân nào đó sẽ tạo ra được AI ở trình độ con người , hay thường gọi là AGI , Không lâu sau đó , ai đó ( hoặc cái gì đó ) sẽ tạo ra một AI thông minh hơn con người , thường được gọi là ASI , Đột nhiên chúng ta sẽ thấy hàng ngàn hoặc hàng chục ngàn siêu trí tuệ nhân tạo – tất cả đều thông minh gấp hàng trăm hoặc hàng ngàn lần con người – cố gắng xử lý vấn để làm thế nào để tự tạo ra những siêu trí tuệ nhân tạo mạnh hơn . Chúng ta cũng có thể sẽ thấy những thế hệ hay vòng đời của máy chỉ mất vài giây để đi tới độ trưởng thành , chứ không phải 18 năm như con người , ILJ . Good , một nhà thống kê người Anh từng góp phần đánh bại cỗ máy chiến tranh của Hitler , gọi khái niệm tôi vừa trình bày Ở trên là sự bùng nổ trí thông minh . Lúc đầu , ông nghĩ một cỗ máy siêu thông minh sẽ giúp giải quyết các vấn để đe dọa sự tồn vong của con người . Nhưng cuối cùng , ông thay đổi suy nghĩ và kết luận rằng chính siêu trí tuệ nhân tạo là mối nguy lớn nhất .

Chúng ta có một ảo tưởng theo thuyết nhân cách hóa khi cho rằng siêu trí tuệ nhân tạo sẽ không thích con người , và rằng nó sẽ có khuynh hướng sát nhân , như nhân vật Hal 9000 trong bộ phim 2001 : A Space Odyssey ( 2001 : Chuyến du hành không gian ) , hoặc Skynet trong loạt phim Terminator ( Kẻ hủy diệt ) , hoặc như tất cả các Cỗ máy thông minh hiểm ác trong các truyện hư cấu . Con người chúng ta luôn có khuynh hướng nhân cách hóa . Một cơn bão sẽ chẳng gắng sức giết chúng ta , giống như nó chẳng cố gắng làm những chiếc sandwich , nhưng chúng ta lại gán cho nó một cái tên rồi cảm thấy tức giận về những xối xả và sấm chớp trút xuống chỗ mình . Chúng ta đôi khi giơ nắm đấm lên trời như thể chúng ta có thể đe dọa một cơn bão .

Ngược lại , cũng sẽ là vô lý khi kết luận rằng một cỗ máy hàng trăm hàng ngàn lần thông minh hơn con người sẽ yêu quý và muốn bảo vệ chúng ta . Điều đó là có thể , nhưng không hề chắc chắn . Một AI tự nó sẽ không cảm thấy biết ơn vì được tạo ra , trừ phi sự hàm ơn ấy được lập trình sẵn trong nó . Máy móc mang tính vô luân , và sẽ rất nguy hiểm nếu giả định ngược lại . Không giống trí thông minh của chúng ta , trí tuệ của máy móc không phải là sản phẩm tiến hóa trong một hệ sinh thái mà ở đó sự đồng cảm là có lợi và được di truyền đến các thế hệ sau . Nó sẽ không thừa kế tính thân thiện . Chế tạo trí tuệ nhân tạo thân thiện , và liệu có chế tạo được không là một câu hỏi lớn , thậm chí là một nhiệm vụ còn lớn hơn dành cho các nhà nghiên cứu và kỹ sư đang suy nghĩ và chế tạo AI . Chúng ta không rõ liệu trí tuệ nhân tạo có bất kỳ khả năng cảm xúc nào không , ngay cả khi các nhà khoa học cố hết sức để đạt được điều đó . Tuy nhiên , như chúng ta sẽ thấy , các nhà khoa học tin rằng AI có những động cơ của riêng nó . Và một AI đủ thông minh sẽ có nhiều khả năng hiện thực hóa những động cơ đó . .

Điều đó đưa chúng ta đến gốc rễ của vấn đề : chia sẻ hành tinh này với một thứ thông minh hơn con người . Nếu những động cơ của chúng không tương thích với sự sinh tồn của loài người thì sao ? Hãy nhớ , chúng ta đang nói đến một cỗ máy có thể thông minh hơn chúng ta một ngàn , một triệu lần , vô số lần – sẽ khó đánh giá tiềm lực của nó , và không thể biết nó sẽ nghĩ gì . Nó không cần phải ghét chúng ta trước khi chọn những phân tử của chúng ta cho mục đích của nó . Bạn và tôi thông minh hơn loài chuột đồng hàng trăm lần , và có chung 90 % bộ DNA . Nhưng chúng ta có thảo luận với chúng trước khi cày xới đất nơi có hang của chúng để làm ruộng không ? Chúng ta có hỏi ý kiến của những con khỉ trong phòng thí nghiệm trước khi cắt đầu chúng ra để nghiên cứu về các chấn thương trong thể thao ? Chúng ta không ghét chuột hoặc khỉ , nhưng chúng ta vẫn đối xử với chúng một cách tàn nhẫn . Siêu trí tuệ nhân tạo AI sẽ không cần phải ghét chúng ta mới hủy diệt chủng ta .

Sau khi máy móc thông minh đã được chế tạo và con người không bị quét sạch , có lẽ chúng ta sẽ có điều kiện để nhân cách hóa máy móc . Nhưng giờ đây , khi mới ở ngưỡng bắt đầu chế tạo AGI , thì đó là một thói quen nguy hiểm . Nhà đạo đức học Nick Bostrom từ Đại học Oxford phân tích :

Điều kiện tiên quyết cho việc có được một cuộc thảo luận ý nghĩa về siêu trí tuệ nhân tạo là sự nhận thức rằng siêu trí tuệ nhân tạo không chỉ là một cộng nghệ khác , một công cụ khác làm tăng thêm khả năng của con người . Siêu trí tuệ nhân tạo còn có những khác biệt về cơ bản . Điểm này cần được nhấn mạnh , vì nhân cách hóa siêu trí tuệ nhân tạo là mảnh đất màu mỡ nhất cho những quan niệm sai lầm .

Siêu trí tuệ nhân tạo có những khác biệt về cơ bản trong phạm trù công nghệ , Bostrom nói , vì sự ra đời của nó sẽ thay đổi những quy luật của tiến trình – siêu trí tuệ nhân tạo sẽ tự phát minh ra những phát minh và quyết định nhịp độ phát triển công nghệ . Con người sẽ không còn là đầu tàu , và sẽ không có gì thay đổi được điều đó . Hơn nữa , trí thông minh của máy móc tiên tiến có sự khác biệt cơ bản so với trí thông minh của con người . Mặc dù được con người phát minh , nhưng nó sẽ tìm kiếm khả năng tự quyết và muốn tự do khỏi con người . Nó sẽ không có những động cơ như con người , vì nó sẽ không có tâm hồn như con người . ”

Vì vậy , nhân cách hóa máy móc sẽ dẫn tới nhận thức sai lầm , và nhận thức sai lầm về cách chế tạo những máy móc thân thiện như thế nào sẽ dẫn tới những thảm họa . Trong truyện ngắn “ Runaround , thuộc tuyển tập truyện khoa học viễn tưởng kinh điển I , Robot ( Tôi , Robot ) , tác giả Isaac Asimov giới thiệu Ba định luật về robot của ông . Chúng được viết vào mạng neuron thần kinh trong bộ não “ positron ” của robot :

1 . Robot không được làm hại con người , hoặc để mặc cho con người bị hại .
2. Robot phải phục tùng mọi mệnh lệnh từ con người , trừ phi mệnh lệnh đó mâu thuẫn với Định luật thứ nhất .

3 . Robot phải tự bảo vệ sự tồn tại của nó , trừ phi sự bảo vệ do xung đột với Định luật thứ nhất hoặc Định luật thứ hai .

Những định luật trên làm ta nghĩ đến điều luật vàng ( ” Ngươi không được giết ” ) , đến ý niệm của Do Thái Ki – tô giao cho rằng tội lỗi là kết quả của những việc được giao phó mà không hoàn thành , đến lời thề Hippocrates của ngành y , và thậm chí đến quyền tự vệ . Nghe rất hay , đúng không ? Nhưng đến khi áp dụng thì luôn hỏng . Trong truyện ” Runaround , ” những kỹ sư mỏ trên bề mặt sao Hỏa ra lệnh cho một robot đi lấy về một chất có độc tính đối với nó , Thế là nó bị kẹt giữa hai hành động : hành động theo luật số 2 – phục tùng mệnh lệnh con người , và hành động theo luật số 3 – tự bảo vệ bản thân . Robot đi vòng tròn như người say cho đến khi những kỹ sư phải liều mạng để cứu nó. Và đó cũng là điều xảy ra trong mọi câu chuyện về robot của Asimov – những hậu quả không lường trước xảy ra do những mâu thuẫn nội tại nằm trong Ba định luật . Chỉ bằng cách lách luật , các thảm họa mới được ngắn chặn .

Asimov chỉ đơn thuấn muốn viết truyện , ông không tìm cách giải quyết những vấn đề an ninh trong thế giới thực . Nơi bạn và tôi sống , những định luật của ông không hoạt động . Trước tiên , chúng không đủ chính xác . Định nghĩa “ robot chính xác là gì , khi mà con người có thể cấy ghép các bộ phận nhân tạo thông minh , các mô vào cơ thể và não của họ ? Và như thế , định nghĩa “ con người ” chính xác là gì : “ Mệnh lệnh , ” “ bị thương ” “ sự tồn tại ” đều là những thuật ngữ không rõ ràng .

Lừa cho robot phạm tội sẽ đơn giản thôi , trừ phi chúng có một nhận thức hoàn hảo về mọi kiến thức của loài người . “ Hãy bỏ một ít dimethylmercury vào dầu gội đầu của Charlie là một mệnh lệnh giết người chỉ khi bạn biết dimethylmercury là một chất độc thần kinh cực mạnh . Asimov cuối cùng đã viết thêm định luật thứ tư , Định luật số 0 , cấm robot làm hại con người trong mọi trường hợp , nhưng nó không giải quyết được vấn đề gì .

Bộ luật của Asimov đầy kẽ hở , nhưng chúng lại được trích dẫn nhiều nhất khi cố gắng mã hóa mối quan hệ giữa các cỗ máy thông minh và con người trong tương lai . Điều đó thật đáng sợ . Có thật bộ luật Asimov này là tất cả những gì chúng ta có : Tôi e rằng nó còn tệ hơn thế . Các drone robot bán tự động hiện giết khoảng vài chục người mỗi năm . 56 nước đã có hoặc đang phát triển lính robot . Họ chạy đua để làm chúng trở nên tự động và thông minh . Phần lớn các cuộc thảo luận về đạo đức trong AI và tiến bộ công nghiệp diễn ra trong những thế giới khác nhau .

Như tôi sẽ trình bày , AI là một công nghệ , hai mái , giống như năng lượng hạt nhân . Phản ứng hạt nhân có thu thắp sáng cho nhiều thành phố hoặc hủy diệt chúng . Hầu hết mọi người không thể tưởng tượng nổi sức mạnh khủng khiếp của nó cho đến năm 1945 , Với AI tiên tiến , giờ đây chúng ta đang ở những năm 1930 . Chúng ta khó có thể sống sót nếu nó nổ đột ngột như bom hạt nhân .

James Barrat

Sách: Phát Minh Cuối Cùng – Trí tuệ nhân tạo và sự cáo chung của kỷ nguyên con người

Phần 2: Phát Minh Cuối Cùng – Trí tuệ nhân tạo và sự cáo chung của kỷ nguyên con người (Phần 2)

CoinVx

Bình luận

ĐỐI TÁC