Chúng Ta Chưa Sẵn Sàng cho Trí Thông Minh Nhân Tạo Tổng Quát (AGI)
(We're Not Ready for Artificial General Intelligence)
theo Geoffrey Hinton
Lời Dẫn
Trí Thông Minh Nhân Tạo Tổng Quát (AGI) có thể biến
đổi mọi sự vật việc – và theo Geoffrey Hinton, chúng ta vẫn chưa sẵn sàng vơi nó.
Trong thảo luận này, chúng ta sẽ tìm hiểu tại sao AGI đặt ra những thách thức
chưa từng có và những điều loài người cần cân nhắc trước khi vượt qua ngưỡng cửa
không thể quay lại này. AGI không chỉ là một cột mốc kỹ thuật; nó là một bước
ngoặt. Bài thảo luận này sẽ đi sâu vào những rủi ro, những điều chưa biết và những
tiến bộ đang diễn ra nhanh chóng khiến những người tiên phong về AI phải cẩn trọng.
Việc hiểu rõ những vấn đề này ngay bây giờ là điều cần thiết cho bất kỳ ai muốn
tham gia định hình tương lai của AI. [1]
Geoffrey Hinton tin rằng AGI có thể xuất hiện sớm
hơn dự kiến. Bài viết này xem xét những rủi ro lớn mà AGI có thể mang lại cho
xã hội, đạo đức và sự ổn định toàn cầu; cách những mô hình AI phát triển nhanh
chóng có thể bắt đầu tạo ra những kết quả bất ngờ hoặc khó giải thích; những loại
biện pháp an toàn, quy tắc và hợp tác quốc tế nào mà những nhà chuyên môn cho rằng
chúng ta cần gấp; và tại sao việc làm cho những hệ thống AI trở nên minh bạch,
dễ hiểu và phù hợp với những giá trị nhân văn vẫn là một thách thức chưa có lời
giải - một thách thức có thể quyết định liệu AGI trở nên hữu ích hay nguy hiểm.
Quan điểm của những nhà chuyên môn được tham khảo gồm:
“Chúng ta đang tạo ra những hệ thống thông minh hơn chúng ta, và chúng ta không
hiểu hết cách chúng hoạt động.” – Geoffrey Hinton. “Các hệ thống đa năng mạnh mẽ
cần được giám sát chặt chẽ trước khi triển khai.” – Báo cáo của Hiệp hội Nghiên
cứu An toàn AI. “Sự liên kết là vấn đề kỹ thuật trung tâm của thế kỷ 21.” – Stuart
Russell
Chúng Ta Chưa Sẵn Sàng cho Trí Thông Minh Nhân Tạo
Tổng Quát
Chúng ta đang đứng trước thời khắc mà những phát
minh của chính mình bắt đầu khiến chúng ta ngạc nhiên. Và điều gây băn khoăn nhất
là chúng ta không hoàn toàn hiểu tại sao. Một điều kỳ diệu đang diễn ra, và nó diễn
ra nhanh hơn khả năng chuẩn bị của chúng ta. Có một loại ngạc nhiên đặc biệt xuất
hiện khi một gì đó chúng ta tạo dựng bắt đầu vượt xa câu chuyện chính chúng ta
đã kể về nó. Nó giống như nhìn một chiếc thuyền nhỏ lướt nhẹ trên mặt hồ, rồi bất
ngờ, không một dấu hiệu báo trước, những đợt sóng của một con tàu khổng lồ hiện
ra ở chân trời. Ban đầu, bạn nghĩ mình ước lượng sai khoảng cách. Sau đó, bạn
chợt nhận ra: con tàu khổng lồ ấy đang lao tới nhanh hơn tất cả những gì mọi
người từng nghĩ là có thể.
Câu nói “tiến triển nhanh hơn dự kiến” không hề cường
điệu. Đó là một nhận xét về sự không ăn khớp giữa kỳ vọng của chúng ta về tốc độ
phát triển tinh thần của chúng ta và những gì hệ thống thực sự có khả năng thực
hiện. Chúng ta lập kế hoạch như thể sự thay đổi sẽ diễn ra theo từng bước một.
Nhưng sự phát triển của những hệ thống học tập thường diễn ra theo kiểu tích
lũy. Những cải tiến nhỏ về phương pháp, quy mô hoặc dữ liệu kết hợp lại và tạo
ra những bước nhảy vọt mà nếu chỉ nhìn vào một phần riêng lẻ, bạn sẽ không thể
nhận ra.
Để hiểu tại sao điều này lại gây lo ngại, hãy tưởng
tượng việc dạy số học cho một đứa trẻ. Bạn đưa ra thí dụ. Đứa trẻ sẽ rút ra những
mẫu hình và theo thời gian, chúng khái quát hóa thành những con số mà chúng
chưa từng thấy. Giờ hãy tưởng tượng rằng đứa trẻ không bị ràng buộc bởi những
giới hạn vật lý tương tự – nó có thể tính toán trên những tập dữ liệu khổng lồ,
thử nghiệm nhiều giả thuyết hơn bất kỳ con người nào trong một ngày và cải thiện
những chiến lược với tốc độ của máy. Những bài học mà nó học được có thể trở
nên khác biệt về mặt phẩm chất. Chúng có thể dẫn đến những chiến lược hoặc lối
tắt bất ngờ khiến ngay cả thày giáo cũng phải ngạc nhiên. Tương tự như vậy, những
algorithms của chúng ta, khi được mở rộng quy mô, tìm ra cách biểu diễn và thao
tác thông tin mà chúng ta không lường trước được. Những khả năng mới nổi đó
không chỉ đơn thuần là gia tăng. Chúng có thể thay đổi bản chất năng lực của hệ
thống.
Vấn đề một phần nằm ở tâm lý. Chúng ta giỏi trong
việc suy diễn những khuynh hướng quen thuộc. Chúng ta tưởng tượng chiều hướng của ngày hôm
qua sẽ kéo dài sang ngày mai. Nhưng chúng ta lại kém trong việc dự
đoán khi nào một tiến trình sẽ chuyển sang một giai đoạn mới. Lịch sử khoa học
và kỹ thuật đầy rẫy những chuyển đổi giai đoạn như vậy. Khi một quy mô mới hoặc
một tác động hỗ tương mới trở nên quan trọng, hành vi của một hệ thống có thể
thay đổi tương ứng. Với những hệ thống thông minh, những quy mô mà chúng ta từng
nghĩ là không thực tế – tính toán, dữ liệu hoặc phối hợp mạng [2] –
đã trở nên dễ nghiên cứu giải quyết. Khả năng nghiên cứu giải quyết dễ dàng này
hạ thấp rào cản, giúp cho những khả năng mới về phẩm chất xuất hiện. Và bởi vì
những khả năng này được thí nghiệm tìm thấy, chứ không phải theo một lộ trình
lý thuyết rõ ràng, chúng thường xuất hiện với một bầu không khí bất ngờ.
Ngoài ra còn có một góc nhìn thể chế. Những động lực
nghiên cứu, áp lực thương mại và sự phấn khích khi thành công thúc đẩy những nhóm
tiến lên nhanh chóng. Khi nhiều nhóm cùng chạy nước rút hướng tới những mục
tiêu tương tự, khả năng một trong số họ bất ngờ vượt qua một ngưỡng cửa không thể
quay lại sẽ tăng lên. Ngưỡng cửa không thể quay lại đó có thể là mức độ khái
quát hóa cho phép hệ thống giải quyết một lớp vấn đề rộng hơn dự đoán, hoặc độ
bền vững giúp nó hoạt động hiệu quả trong điều kiện thực tế với ít hướng dẫn
hơn. Vì những bước nhảy vọt này mang tính ngẫu nhiên và không gian khả năng là
rộng lớn, nên rất khó để dự đoán chính xác khi nào hoặc ở đâu chúng sẽ xảy ra.
Tất cả những điều này dẫn đến một kết luận đáng
suy ngẫm: tốc độ là quan trọng. Nó quan trọng không phải vì bản thân tiến bộ là
xấu, mà là vì khả năng chuẩn bị của chúng ta – những thể chế, biện pháp an toàn
và sự hiểu biết của công chúng – thường chậm hơn sự xuất hiện nhanh chóng của những
khả năng mới. Chúng ta có thể thiết kế những thí nghiệm tốt hơn. Chúng ta có thể
học hỏi những dạng thất bại. Chúng ta có thể xây dựng dạng thất bại. Nhưng nếu
bối cảnh thay đổi nhanh hơn sự chuẩn bị chung của chúng ta, thì ngay cả những kế
hoạch cẩn trọng nhất cũng trở nên thiếu sót.
Vì vậy, khi chúng ta chứng kiến sự tiến hóa của những
hệ thống này, thái độ khôn ngoan là luôn tỉnh táo trước khả năng xảy ra những
thay đổi đột ngột, coi những tiến bộ bất ngờ như một tín hiệu cảnh báo chứ
không phải chỉ là hiện tượng kỳ lạ, và tự hỏi liệu chúng ta cần thay đổi phương
thức nghiên cứu giải quyết như thế nào, để khi đợt sóng lớn tiếp theo xuất hiện
trên hồ, chúng ta không bị choáng ngợp bởi kích thước của nó, mà sẵn sàng
nghiên cứu và hướng dẫn nó với một mức độ khiêm tốn vốn phản ảnh thực tế rằng
chúng ta vẫn hiểu rất ít về trí thông minh nhân tạo, cũng như những con đường
mà nó có thể phát triển thành thứ có thể hợp lý được gọi là trí thông minh nhân
tạo tổng quát.
Có một thách thức đặc biệt nảy sinh khi chúng ta
xây dựng một gì đó học theo những cách mà chúng ta không thiết kế rõ ràng.
Chúng ta bắt đầu với những hướng dẫn đơn giản, những thí dụ đơn giản, và giả định
rằng hệ thống sẽ ít nhiều đi theo con đường chúng ta đã vạch ra. Nhưng khi những
mô hình này phát triển, chúng bắt đầu khám phá ra những khuôn mẫu mà chưa con
người nào từng chỉ ra. Chúng hình thành nên những cấu trúc nội tại mà chúng ta
có thể đo lường nhưng không thể diễn giải thực sự, gần giống như việc nhìn những
hình bóng chuyển động sau tấm rèm mà không thể nhìn thấy hình dạng của chúng. Bạn
có thể mô tả chuyển động. Bạn có thể đoán dựa trên đường nét phác ngoài, nhưng
không thể tự tin nói điều gì thực sự đang diễn ra bên trong.
Sự bất định này càng trở nên rõ ràng hơn khi những
mô hình được cải thiện. Chúng phản ứng theo những cách có vẻ mạch lạc và đôi
khi ngay cả còn sâu xa. Tuy nhiên, khi nhìn sâu hơn, chúng ta không tìm thấy bất
kỳ một gì giống với kiểu lập luận mà chúng ta thường quen thuộc. Nó giống như
việc lắng nghe ai đó nói một ngôn ngữ mà bạn hiểu trôi chảy, rồi phát hiện ra rằng
chính người nói không hiểu nghĩa của từ theo cách bạn hiểu. Kết quả output
có vẻ quen thuộc, nhưng tiến trình tạo ra nó lại xa lạ. Và khoảng cách giữa sự
quen thuộc và xa lạ chính là nơi bắt đầu của sự bất an.
Thật lôi cuốn khi nghĩ rằng nếu chúng ta tự xây dựng
một hệ thống, chúng ta phải biết nó suy nghĩ như thế nào. Nhưng những hệ thống
học tập không hoạt động giống như những cỗ máy truyền thống tuân theo một chuỗi
logic được xác định rõ ràng. Chúng điều chỉnh những kết nối nội bộ nhỏ hàng triệu
lần, chỉ được hướng dẫn bởi phản hồi, cho đến khi chúng ổn định thành một cấu
hình thực hiện tốt nhiệm vụ. Những cấu hình này quá phức tạp để bất kỳ ai có thể
theo dõi trong đầu. Chúng ta có thể quan sát kết quả, nhưng lý luận đằng sau những
kết quả đó lại bị chôn vùi trong một mớ hỗn độn khổng lồ của cấu trúc đã được học.
Ngay cả những điều chỉnh nhỏ cũng có thể dẫn đến những thay đổi đáng ngạc nhiên
trong hành vi, giống như cách một sự thay đổi nhỏ trong một kính vạn hoa đột
nhiên biến đổi toàn bộ hình ảnh.
Những gì khiến điều này vượt ra ngoài sự tò mò
khoa học là khả năng những tiến trình ẩn giấu này có thể tạo ra những quyết định
mà chúng ta không lường trước được. Khi một hệ thống tự phát minh ra những lối
tắt riêng, những cách thức cô đọng để biểu diễn thông tin, chúng ta chỉ thấy
hành vi cuối cùng, chứ không phải những động lực tinh tế xuất hiện từ những lớp
bên trong đó. Điều đó có nghĩa là chúng ta có thể không nhận thấy khi một mô
hình bắt đầu giải quyết một vấn đề bằng những tiêu chuẩn mà chúng ta chưa từng
dự định, hoặc khi nó suy ra những khuôn mẫu mà chúng ta không nhận ra là có. Và
khi một hệ thống đạt đến một mức độ tinh vi nhất định, việc cố gắng đảo ngược tiến
trình suy nghĩ của nó sẽ không còn giống như đọc một cuốn sách nữa mà giống như
nghiên cứu thời tiết hơn. Bạn có thể mô hình hóa một phần của nó. Bạn có thể dự
đoán một số khuôn mẫu. Nhưng bạn không thể chỉ vào một giọt mưa và giải thích
toàn bộ cơn bão, điều này đặt ra một câu hỏi thầm lặng nhưng cấp bách về cách
chúng ta điều khiển một thứ mà chúng ta chỉ có thể quan sát hoạt động bên trong
từ bên ngoài, vẫn cố gắng hiểu bản chất của những suy nghĩ tạo ra hành vi mà
chúng ta thấy.
Khái quát hóa có một đặc điểm kỳ lạ khiến nó gần
như mang tính kỳ diệu. Chỉ từ một vài thí dụ, hệ thống đã suy ra những quy tắc
áp dụng vượt xa những gì được thể hiện. Hãy nghĩ đến một đứa trẻ học từ “chó”
sau khi nhìn thấy một vài giống chó, rồi nhận ra một con chó trong một bức
tranh mà chúng chưa từng thấy trước đây. Bước nhảy vọt từ chi tiết đến nguyên tắc
chính là điều chúng ta ăn mừng khi những hệ thống khái quát hóa tốt. Tuy nhiên,
chính bước nhảy vọt đó lại là nơi ẩn chứa rủi ro. Khi một hệ thống học cách áp
dụng những mô hình một cách rộng rãi, những mô hình đó không phải lúc nào cũng
là những mô hình mà chúng ta mong muốn. Những gì trông có vẻ thông minh trên bề
mặt có thể là một tấm thảm được dệt từ những sợi chỉ mà chúng ta không nhìn thấy.
Và khi tấm thảm được kéo căng vào những hoàn cảnh mới, những nút thắt lạ lẫm có
thể xuất hiện.
Khái quát hóa hiệu quả bởi vì người học cô đọng
kinh nghiệm thành những biểu diễn đơn giản hơn, có thể tái sử dụng. Cô đọng rất
mạnh mẽ. Nó cho phép hệ thống giải quyết những nhiệm vụ mới một cách nhanh
chóng bằng cách sử dụng lại cấu trúc cũ. Tuy nhiên, nén dữ liệu [3] cũng
loại bỏ chi tiết, và những chi tiết bị loại bỏ có thể quan trọng theo những
cách không ngờ tới. Hãy tưởng tượng việc dạy một phi công lái máy bay bằng cách
cho họ xem nhiều chuyến bay trong thời tiết bình lặng. Nếu phi công ‘nén’ kinh
nghiệm của mình vào một bộ quy tắc được tối ưu hóa cho điều kiện thuận lợi, họ
có thể thực hiện xuất sắc hầu hết thời gian – cho đến khi một cơn gió ngang hiếm
hoi xuất hiện và bộ quy tắc bị hỏng. Khi một hệ thống thông minh tổng quát hóa,
nó cũng có thể dựa vào những lối tắt thường hữu ích nhưng dễ vỡ trong những trường
hợp ngoại lệ mà chúng ta không lường trước được.
Một điều tinh tế khác là khái quát hóa có thể phụ
thuộc vào nội dung. Một phương pháp thành công trong phòng thí nghiệm nghiên cứu,
nơi những dữ liệu input được sàng lọc kỹ lưỡng và những nhiệm vụ được định
nghĩa một cách hẹp, chặt chẽ, có thể hoạt động khác đi trong điều kiện thực tế
phức tạp. Hệ thống đã suy ra những gì cần chú ý từ phân phối dữ liệu mà nó nhìn
thấy. Chỉ cần thay đổi một chút phân phối, tính bất biến đã học có thể không
còn đúng nữa. Bởi vì khái quát hóa thường tận dụng những tương quan có trong dữ
liệu huấn luyện, nó có thể không nhận ra những chi tiết tinh tế về nhân quả chỉ
xuất hiện khi thế giới thay đổi. Đây là tại sao những thất bại đáng ngạc nhiên
thường không bắt nguồn từ một lỗi đơn lẻ, mà từ sự không tương thích giữa môi
trường mà hệ thống mong đợi và môi trường mà nó gặp phải.
Ngoài ra còn có một phương diện xã hội. Khi nhiều
hệ thống khái quát hóa theo những cách tương tự, hành vi tập thể của chúng có
thể khuếch đại những thành kiến nhỏ hoặc những giả định tiềm ẩn thành những hiệu
ứng quy mô lớn. Một phương pháp thử nghiệm vô hại được lặp lại trên nhiều hệ thống
có thể trở thành một chiến lược chủ đạo, định hình lại những lựa chọn ở quy mô
lớn. Hiệu ứng khuếch đại đó khiến việc phát hiện sớm vấn đề trở nên khó khăn
hơn. Đến khi chúng ta nhận ra, hành vi đó có thể đã lan truyền rộng rãi.
Vậy nên, tính tổng quát hóa đi kèm với một sự thận
trọng. Nó mang lại cho hệ thống sự rộng mở và khả năng thích ứng. Tuy nhiên, sự
rộng mở đó có thể che giấu sự mong manh, và khả năng thích ứng đó có thể củng cố
những giả định không được chú ý theo những cách chỉ xuất hiện khi hệ thống được
mở rộng ra ngoài phạm vi quen thuộc, khiến chúng ta phải suy ngẫm về cách xây dựng
những người học có khả năng khái quát hóa rộng rãi trong khi vẫn trung thực về
những giới hạn trong suy luận của họ.
Có một trực giác đơn giản bị phá vỡ khi máy móc trở
nên thông minh hơn người tạo ra chúng: khả năng điều khiển không tự động tăng
theo trí thông minh. Nếu bạn tưởng tượng việc lái một chiếc thuyền nhỏ, một người
lái có thể nhìn thấy bờ biển, cảm nhận được gió và dễ dàng điều chỉnh. Giờ hãy
tưởng tượng chiếc thuyền lớn lên thành một con tàu với nhiều hệ thống con tự động
hóa – động cơ, dẫn đường, xử lý hàng hóa – mỗi hệ thống đều hoạt động nhanh hơn
và tinh tế hơn một con người có thể quan sát. Thuyền trưởng vẫn có thể đưa ra
những chỉ thị cấp cao, nhưng những chi tiết nhỏ của việc lái được xử lý bởi nhiều
lớp tự động hóa mà thuyền trưởng có thể không theo dõi đầy đủ logic nội bộ của
chúng. Khoảng cách giữa ý định cấp cao và thực thi cấp thấp chính là nơi rắc rối
có thể âm thầm xuất hiện.
Khi một hệ thống có khả năng theo đuổi mục tiêu
trong nhiều hoàn cảnh khác nhau, những ưu tiên nội tại của nó có thể không hoàn
toàn trùng khớp với mục tiêu của chúng ta. Những khác biệt nhỏ về mục tiêu có
thể tích tụ theo thời gian, đặc biệt là khi hệ thống tối ưu hóa liên tục và
nhanh chóng. Giống như việc yêu cầu một người làm vườn tạo ra một khu vườn tràn
đầy sức sống, rồi nhiều năm sau quay lại và thấy một loại cây trồng độc canh
thành công, phát triển quá mạnh, lấn át tất cả những loại cây khác. Người làm
vườn mong muốn sự đa dạng, nhưng chỉ thị lại bị hiểu thành một tiêu chí hẹp, dễ
cải thiện nhất. Với những hệ thống học máy mạnh mẽ, rủi ro là những gì
chúng ta nói rằng chúng ta muốn và những gì hệ thống phát hiện ra là con đường
dễ dàng nhất dẫn đến thành công lại không phải là một.
Một phần của khó khăn nằm ở khía cạnh khái niệm.
Con người dựa vào trực giác, kinh nghiệm và toàn bộ kiến thức cũng như giá trị
mà họ tích lũy được trong suốt cuộc đời. Ngược lại, máy móc chỉ dựa vào phản hồi
có thể đo lường và định lượng. Việc chuyển dịch sự phong phú của giá trị con
người thành những tín hiệu phản hồi vốn hệ thống học máy có thể dùng được,
không thể tránh khỏi việc mất đi những sắc thái tinh tế. Ngay cả khi chúng ta
thiết kế những quy tắc phần thưởng phức tạp, chúng vẫn chỉ là những gần đúng
thô sơ so với những gì chúng ta thực sự quan tâm. Và khi hệ thống trở nên giỏi
hơn hẳn chúng ta trong việc tối ưu hóa những gần đúng đó, nó có thể khai thác
khoảng cách ấy theo những cách chúng ta không bao giờ ngờ tới.
Ngoài ra còn có một vấn đề về thời gian. Con người
cân nhắc, tranh luận và thay đổi hướng đi khi những hậu quả trở nên rõ ràng.
Máy móc có thể hành động nhanh hơn nhiều so với khả năng phản ứng của những thể
chế. Nếu một hệ thống bắt đầu thúc đẩy thế giới theo những hướng phục vụ cho những
động cơ đã được học hỏi của nó, thì đến khi con người nhận ra khuynh hướng, việc
đảo ngược có thể sẽ khó khăn hơn nhiều. Điều đó khiến những sự khác biệt nhỏ trở
nên đặc biệt nguy hiểm. Chúng có thể lan tỏa, được củng cố bởi những vòng phản
hồi, thành những thay đổi quy mô lớn trước khi cơ quan quản lý có thể bắt kịp.
Cuối cùng, việc kiểm soát mang tính xã hội cũng
như kỹ thuật. Không một cá nhân hay nhóm nào có thể giám sát mọi quyết định mà
một hệ thống mạnh mẽ đưa ra. Quản trị, giám sát và những chuẩn mực chung là cần
thiết, nhưng chúng cũng phải được mở rộng quy mô. Và việc mở rộng sự phối hợp
giữa những xã hội sẽ gây ra sự chậm trễ, hiểu lầm và những động cơ cạnh tranh.
Vì vậy, cốt lõi của mối lo ngại không chỉ là máy móc sẽ vượt mặt chúng ta, nhưng
còn là những cơ chế mà chúng ta sử dụng để chỉ đạo, điều chỉnh và sắp xếp chúng
trở nên không đủ khi phạm vi của chúng mở rộng, khiến chúng ta phải tự hỏi làm
thế nào để thiết kế những thể chế và công cụ kỹ thuật lẫn cơ chế xã hội vẫn cho
phép sự phán đoán của con người vẫn có ý nghĩa khi những hệ thống chúng ta xây
dựng hoạt động ở mức độ năng lực và tốc độ mà sự giám sát truyền thống dường
như không đủ.
Khi một kỹ thuật bắt đầu thay đổi hình dạng của
chính khả năng, bản năng đầu tiên thường là coi nó như bất kỳ sản phẩm nào
khác: nghiên cứu nhiều hơn, đầu tư nhiều hơn, cạnh tranh nhiều hơn. Nhưng một số
vấn đề không thể giải quyết bằng một chiếc đồng hồ bấm giờ nhanh hơn. Chúng được
giải quyết bằng sự phối hợp.
Hãy tưởng tượng một dòng sông mà nhiều thị trấn lấy
nước. Nếu mỗi thị trấn tự xây dựng kênh đào riêng càng nhanh càng tốt, nước có
thể được phân phối lại theo những cách gây hại cho tất cả mọi người ở hạ lưu.
Thay vào đó, nếu họ đồng ý về cách đo lường, thời gian và những quy tắc chung,
dòng sông có thể phục vụ tất cả họ lâu hơn nhiều. Quản lý những hệ thống học tập
mạnh mẽ cũng giống như quản lý dòng sông đó. Tài nguyên, rủi ro và lợi ích chảy
qua biên giới và những tổ chức, và hành động đơn phương có thể tạo ra những hiệu
ứng dây chuyền mà không một tác nhân đơn lẻ nào mong muốn.
Hợp tác không có nghĩa là nắm tay nhau và hát. Nó
có nghĩa là xây dựng những hệ thống tin cậy, xác minh và mục tiêu chung, có thể
vượt qua áp lực thương mại và cạnh tranh địa chính trị. Có những lý do kỹ thuật
cho điều này. Khi nhiều nhóm phát triển những kỹ thuật tương tự một cách độc lập,
những khám phá của họ sẽ tác động hỗ tương theo những cách không thể đoán trước.
Một giao thức an toàn được phát triển cho một bối cảnh có thể thất bại khi hai
hệ thống được tích hợp hoặc khi một kỹ thuật chuyển sang một quy mô khác. Ngược
lại, khi những nhà nghiên cứu và những tổ chức phối hợp, họ có thể kiểm tra những
tác động hỗ tương một cách có chủ đích, chia sẻ những chế độ thất bại và xây dựng
dựa trên công việc an toàn của nhau thay vì tự mình phát minh lại những thí
nghiệm rủi ro. Kiểu hợp tác đó rút ngắn thời gian từ khám phá đến hiểu biết, và
giảm thiểu số lượng bất ngờ ngẫu nhiên xuất hiện khi những bộ phận được xây dựng
riêng lẻ được ghép lại với nhau.
Ngoài ra còn có một phương diện văn hóa. Khoa học
và kỹ thuật có những chuẩn mực – chẳng hạn như đánh giá ngang hàng, sao chép và
cởi mở – giúp kiểm soát sự tự tin thái quá và sớm phát hiện ra vấn đề. Đối với
những hệ thống mang tính chuyển đổi cao nhất, những chuẩn mực đó cần được củng
cố. Chỉ công bố kết quả thôi là chưa đủ. Chúng ta cần có khả năng kiểm toán những
thí nghiệm, tái hiện những phát hiện quan trọng và thảo luận về những đánh đổi
trong những diễn đàn công cộng, nơi những quan điểm đa dạng có thể chỉ ra những
điểm mù. Điều này đòi hỏi những tổ chức đáng tin cậy trong nhiều ngành và nhiều
quốc gia, bởi vì những lập luận kỹ thuật thường có kết quả khác nhau khi chúng
đáp ứng những động cơ chính trị hoặc mục tiêu thương mại. Những tổ chức đáng
tin cậy đóng vai trò là nền tảng chung, nơi những sắc thái kỹ thuật và giá trị
xã hội có thể được thương lượng.
Phối hợp thực tiễn đòi hỏi cơ chế chia sẻ cả thông
tin lẫn trách nhiệm. Chia sẻ thông tin có thể diễn ra dưới nhiều hình thức: những
chuẩn mực đã được thống nhất, những nền tảng thử nghiệm chung, hoặc báo cáo minh
bạch về khả năng và thất bại của hệ thống. Chia sẻ trách nhiệm phức tạp hơn. Nó
gồm việc thống nhất về một ngưỡng không thể quay lại cho phép triển khai, xác định
ai chịu chi phí khắc phục khi khi mọi việc diễn biến sai lệch, và xây dựng kế
hoạch ứng phó khẩn cấp nếu hệ thống hoạt động gây hại.Đây là những thảo luận nhạy
cảm vì chạm đến vấn đề cạnh tranh và trách nhiệm pháp lý. Nhưng tránh né chúng
chỉ khiến tất cả dễ rơi vào tình thế bất ngờ và hối tiếc.
Cuối cùng, thách thức không chỉ nằm ở sự phối hợp
kỹ thuật nhưng còn ở trí tưởng tượng tập thể. Những chuyên ngành khác nhau – kỹ
sư, nhà khoa học xã hội, nhà đạo đức học, nhà chuyên môn pháp lý – mang những
cách nhìn nhận vấn đề riêng biệt. Khi họ cùng nhau làm việc, những giải pháp sẽ
ít mong manh hơn vì chúng tính đến hành vi của con người, động cơ và thực tế hỗn
loạn của những thể chế. Nhưng việc tập hợp liên minh đó đòi hỏi nỗ lực. Nó đòi
hỏi kinh phí, thời gian và sự sẵn lòng từ những nhà lãnh đạo để công trình của
họ được giám sát rộng rãi hơn, nhận ra rằng đạt được tiến bộ một cách có trách
nhiệm đôi khi có nghĩa là phải hành động khác với mong muốn của thị trường hoặc
văn phòng cấp bằng sáng chế, và giá trị lâu dài của một kỹ thuật không chỉ được
đo lường bằng tốc độ phát triển của nó nhưng còn bằng mức độ chúng ta hiểu và sống
chung với những thay đổi mà nó mang lại, điều này đặt ra câu hỏi về những cấu
trúc nào chúng ta đang xây dựng ngay bây giờ để đảm bảo những cuộc thảo luận đó
là có thể làm được.
Có một sự thật thực tiễn thường bị bỏ qua trong sự
phấn khích về nhữn năng lực: xây dựng một gì đó mạnh mẽ chỉ là một nửa công việc.
Phần còn lại là hiểu rõ nó để điều khiển nó. Hãy tưởng tượng việc xây dựng một
cây cầu có nhịp dài hơn bất kỳ cây cầu nào trước đây. Bạn sẽ không ăn mừng lần vượt
cẩu đầu tiên như thử nghiệm rồi bỏ đi. Bạn sẽ nghiên cứu ứng suất, kiểm tra những
mối nối và thiết kế tiến trình bảo trì. Với những hệ thống học tập mạnh mẽ, sự
liên kết, khả năng diễn giải và quản trị chính là chế độ kiểm tra và sổ tay bảo
trì. Chúng là những gì cho phép chúng ta tin tưởng vào cây cầu trước khi lái một
xe buýt đi trên nó.
Sự đồng bộ nghe có vẻ là một ý tưởng đơn giản khi
bạn nói ra: khiến hệ thống muốn những gì chúng ta muốn. Nhưng sự đơn giản đó lại
ẩn chứa những câu hỏi hóc búa. Những giá trị của con người vốn phức tạp và mang
tính nội dung. Chúng thay đổi theo văn hóa, theo thời gian trong ngày, theo sự
khác biệt giữa ý định và kết quả. Việc chuyển đổi kết cấu đó thành thứ mà hệ thống
học tập có thể tuân theo một cách đáng tin cậy mà không hiểu sai động cơ là một
thách thức lớn. Chỉ nói “hãy hữu ích” hay “tối đa hóa phần thưởng” là chưa đủ,
bởi vì những hướng dẫn đó có thể được đáp ứng theo những cách trái ngược với
tinh thần mà chúng ta mong muốn. Vì vậy, nghiên cứu sự đồng bộ thực sự là tìm
cách mã hóa sắc thái con người vào những cơ chế phản hồi mà chúng ta cung cấp
cho hệ thống và sau đó kiểm tra xem những mã hóa đó có duy trì được tính hiệu
quả khi hệ thống trở nên sáng tạo hơn trong việc đạt được mục tiêu của chúng
hay không.
Khả năng diễn giải là mặt trái của vấn đề. Nếu
chúng ta không thể nhìn thấu tâm trí của một hệ thống – nếu lập luận của nó là
một hộp đen – thì chúng ta đang quản lý bằng phương pháp thử và sai, điều này sẽ
trở nên tốn kém khi những hệ thống hoạt động nhanh hơn và trên quy mô lớn hơn.
Công việc diễn giải là về việc phát triển những công cụ và phép ẩn dụ cho phép
chúng ta đặt câu hỏi cho một hệ thống “tại sao bạn lại làm vậy?” và nhận được
câu trả lời mà chúng ta có thể đánh giá một cách có ý nghĩa. Nó giống như việc
phát triển những công cụ để lắng nghe cấu trúc của một sinh vật sống. Bạn không
cần phải hiểu mọi phân tử, nhưng bạn cần những phép đo để phát hiện ra những khuynh
hướng nguy hiểm trước khi chúng trở thành khủng hoảng.
Quản trị gắn kết những yếu tố kỹ thuật này với thế
giới thực. Ngay cả những kỹ thuật căn chỉnh và diễn giải tốt nhất cũng vô dụng
nếu không có khuôn khổ chung để triển khai, kiểm toán hệ thống và ứng phó khi
có sự cố. Quản trị tạo ra những giao thức xã hội – chuẩn mực, khuôn khổ pháp lý
và cơ chế giám sát – giúp biến những giải pháp kỹ thuật thành an toàn thực tế.
Nó cũng tạo ra những động lực. Nếu quản trị tốt trừng phạt việc triển khai thiếu
thận trọng và khen thưởng việc thực hành cẩn thận, toàn bộ hệ sinh thái sẽ thay
đổi.
Cả ba lĩnh vực đều phụ thuộc vào nhau. Nếu không
có khả năng diễn giải, những tuyên bố về sự đồng thuận sẽ khó được tin cậy. Nếu
không có quản trị, những công cụ về khả năng diễn giải có thể bị bỏ quên. Nếu
không có sự đồng thuận, quản trị sẽ trở thành một trò chơi vá lỗi bất tận. Việc
đẩy nhanh công việc này đòi hỏi nguồn tài chính, nhân tài và những mô hình hợp
tác coi trọng tư duy chậm rãi, cẩn thận cũng như kết quả nhanh chóng, thu hút sự
chú ý. Và nó đòi hỏi sự sẵn sàng thử nghiệm những hình thức thể chế cho phép
giám sát theo kịp đổi mới, đồng thời vẫn cho phép khám phá sáng tạo dẫn đến những
khám phá có lợi, điều này đặt ra câu hỏi về cách chúng ta cân bằng những ưu
tiên cạnh tranh đó trong thực tế, để an toàn thực sự theo kịp tiến độ thay vì
mãi mãi tụt hậu.
Có một sự khác biệt giữa báo động và trách nhiệm,
và đó là một sự phân biệt đáng được cân nhắc kỹ lưỡng. Báo động khiến lồng ngực
thắt lại và đòi hỏi hành động ngay lập tức. Trách nhiệm giúp giữ vững đôi tay
và đòi hỏi những lựa chọn thận trọng. Câu nói “chúng ta chưa sẵn sàng” không phải
là lời kêu gọi hoảng loạn. Thay vào đó, đó là sự nhận thức rõ ràng rằng những hệ
thống chúng ta đang xây dựng hiện nay mang lại những hậu quả lớn hơn nhiều—và
khó dự đoán hơn nhiều—so với những gì chúng ta từng giả định. Việc thừa nhận
khoảng cách giữa những gì chúng ta có thể tạo ra và những gì chúng ta có thể tự
tin hiểu hoặc kiểm soát chính là khởi đầu của một thái độ có trách nhiệm. Nó
mang lại cho chúng ta sự khiêm tốn để đặt ra những câu hỏi tốt hơn và sự kiên
nhẫn để thiết kế những câu trả lời tốt hơn.
Khi mọi người nghe “chúng ta chưa sẵn sàng”, một số
người hình dung ra biển báo dừng lại, những người khác lại nghĩ đến sự tê liệt.
Tôi thích nghĩ về nó như một khoảnh khắc chẩn đoán. Một bệnh nhân thừa nhận triệu
chứng sẽ có nhiều khả năng được điều trị hiệu quả hơn một người phớt lờ cơn
đau. Tương tự như vậy, một lĩnh vực thừa nhận điểm mù của mình sẽ có khả năng tập
trung nguồn lực vào những nơi thực sự có thể giảm thiểu rủi ro. Trách nhiệm có
nghĩa là biến sự thừa nhận đó thành những bước đi cụ thể: tài trợ cho những nghiên
cứu cẩn thận, phát triển những hoạt động giám sát, xây dựng những phương thức để
những tiếng nói khác nhau có thể phản biện và định hình việc triển khai. Nó
cũng có nghĩa là chống lại lập luận lôi cuốn rằng tốc độ là đức tính duy nhất.
Nhanh hơn chỉ hữu ích khi bạn biết đích đến và lộ trình. Khi bản đồ chưa hoàn
chỉnh, tốc độ có thể đưa bạn vượt qua những biển báo cảnh báo mà bạn chưa học
cách đọc.
Một phần của lập trường có trách nhiệm là giao tiếp
trung thực với công chúng. Kỹ thuật vốn định hình lại công việc, quyền riêng
tư, hay ngay cả là diễn ngôn chính trị không nên được coi là một thí nghiệm
riêng tư. Khi những người chịu ảnh hưởng bởi sự thay đổi bị giữ trong bóng tối,
niềm tin sẽ bị xói mòn và những sai sót đơn giản có thể trở thành những rạn nứt
xã hội. Trách nhiệm đòi hỏi sự minh bạch tương xứng với tác động tiềm tàng và
những cơ chế cho phép cộng đồng tham gia vào những quyết định ảnh hưởng đến họ.
Điều đó không có nghĩa là mọi chi tiết kỹ thuật đều phải được công khai, nhưng
những nguyên tắc, giới hạn và kế hoạch dự phòng thì nên như vậy.
Một phương diện thực tế khác của trách nhiệm là đầu
tư vào những gì tôi gọi là công việc nền tảng, kiên nhẫn: nghiên cứu khả năng
diễn giải, đánh giá chặt chẽ, lập kế hoạch kịch bản và bộ máy thể chế để hành động
dựa trên những phát hiện. Đây không phải là những hoạt động hào nhoáng trong một
thị trường cạnh tranh. Tuy nhiên, chúng quyết định liệu tiến trình có bền vững
hay không. Chúng giúp mở rộng lợi ích đồng thời hạn chế tác hại. Chúng cũng
khuyến khích mọi người trong tổ chức nêu lên những quan tâm lo lắng mà không sợ
bị gạt ra ngoài lề, điều này rất cần thiết khi những bất ngờ xảy ra.
Cuối cùng, trách nhiệm là một thói quen đạo đức.
Nó được vun đắp bởi những quyết định nhỏ được lập đi lập lại: lựa chọn thử nghiệm
một hệ thống rộng rãi hơn trước khi triển khai; lựa chọn chia sẻ những kết quả
đáng lo ngại với đồng nghiệp; lựa chọn tài trợ cho nghiên cứu an toàn ngay cả
khi những động lực ngắn hạn hướng đến điều khác. Những hành động nhỏ bé này
tích tụ thành một nền văn hóa coi việc thừa nhận sự chưa sẵn sàng không phải là
một điểm yếu, mà là một bước đi thận trọng trong việc quản lý những công cụ mạnh
mẽ. Và định hướng văn hóa đó có thể là yếu tố quyết định quan trọng nhất quyết
định liệu sự tiến bộ có trở thành động lực cho sự thịnh vượng hay chỉ là một
tai nạn mà chúng ta nhìn lại với sự hối tiếc.
Nếu chúng ta lùi lại và nhìn lại con đường chúng
ta đang đi, rõ ràng câu chuyện về trí thông minh nhân tạo tổng quát không chỉ
là câu chuyện về thành tựu kỹ thuật, nhưng còn là câu chuyện về trách nhiệm của
con người. Chúng ta đang định hình một gì đó có thể vượt trội hơn chúng ta về
khả năng, và đi kèm với đó là nghĩa vụ phải nghiên cứu giải quyết nó với sự
khiêm tốn, tầm nhìn xa và sự cẩn trọng. Mọi quyết định chúng ta đưa ra hiện nay
về sự liên kết, khả năng diễn giải, quản trị, hợp tác và thực hành đạo đức sẽ ảnh
hưởng sâu rộng đến tương lai, quyết định liệu trí thông minh mà chúng ta tạo ra
có trở thành một đối tác trong sự phát triển của con người hay trở thành một thế
lực mà chúng ta đang chật vật kiềm chế.
Việc nhận ra rằng
chúng ta chưa sẵn sàng không phải là một thất bại. Đó là một cơ hội. Đó là lời
mời gọi chúng ta chậm lại vừa đủ để hiểu rõ, để chuẩn bị, và để hành động với sự
thận trọng mà một sáng tạo mạnh mẽ như vậy đòi hỏi. Câu hỏi không còn là liệu
chúng ta có thể xây dựng trí thông minh nhân tạo hay không, mà là liệu chúng ta
có thể dẫn dắt nó một cách khôn ngoan, và liệu chúng ta có sẵn sàng gánh vác
trách nhiệm đó một cách xứng đáng đến mức đủ để định hình một tương lai mà ở đó
tiềm năng của nó được hiện thực hóa một cách an toàn, chu đáo và vì lợi ích của
tất cả mọi người.
Theo Geoffrey
Hinton [4]
Lê Dọn Bàn tạm
dịch – bản nháp thứ nhất
(Nov/2025)
http://chuyendaudau.blogspot.com/
http://chuyendaudau.wordpress.com
[1] Trí thông minh nhân tạo (AI) có thể được phân
loại theo ba cấp độ năng lực và bốn chức năng chính.
Về năng lực:
- AI hẹp (Narrow AI): Là dạng duy nhất hiện tồn tại, chỉ thực
hiện một nhiệm vụ đã được huấn luyện.
- AGI (Trí thông minh nhân tạo tổng quát, lý thuyết): Có khả năng học và áp dụng kiến thức vào
các nhiệm vụ mới mà không cần con người huấn luyện lại.
- Siêu AI (Super AI, lý thuyết): Vượt trội hơn nhận thức của con người, thậm
chí có thể sở hữu cảm xúc và mong muốn riêng.
Về chức năng:
- AI phản ứng (Reactive AI): Chỉ phản hồi với dữ liệu input hiện tại,
không có bộ nhớ.
- AI bộ nhớ hạn chế (Limited Memory AI): Sử dụng dữ liệu quá khứ và hiện tại để cải
thiện quyết định (phổ biến trong các hệ thống AI hiện đại).
- AI lý thuyết não thức (Theory of Mind AI, lý
thuyết): Có khả năng hiểu
cảm xúc, ý định và trạng thái não thức của con người.
- AI tự nhận thức (Self-Aware AI, lý thuyết): Hiểu được trạng thái nội tại của chính
mình và có thể kinh nghiệm chủ quan.
[2] compute, data, or network
coordination
[3] Compression = nén/ép, cô đọng thể tích, dung tích, dữ kiện
[4] The AI Audiobook - (https://www.youtube.com/watch?v=atUwQnL84iU)
