AGI: Giấc Mơ Công Nghệ Hay Một Ảo Tưởng Bất Khả Thi Về Mặt Toán Học?

Published

Toàn văn bài báo khoa học của tác giả Max M. Schlereth được nhắc đến trong bài viết:
AGI is Mathematically Impossible

https://philarchive.org/archive/SCHAIM-14

Hỏi: Thưa ngài, bài báo mở đầu bằng một tuyên bố táo bạo: AGI là bất khả thi. Lập luận này dựa trên khái niệm mà tác giả gọi là “Rào cản Lựa chọn Vô hạn” (Infinite Choice Barrier). Trước khi đi vào các chi tiết kỹ thuật, ngài có thể giải thích khái niệm này thông qua các ví dụ thực tế mà tác giả đã nêu không?

Đáp: Rất sẵn lòng. Tác giả đã khéo léo sử dụng ba ví dụ từ ba lĩnh vực khác nhau để minh họa cho một vấn đề cấu trúc duy nhất.

Đầu tiên là “Nghịch lý Vợ chồng” (The Conjugal Paradox). Hãy tưởng tượng một người hỏi bạn đời của mình một câu hỏi tưởng chừng đơn giản: “Anh này, thành thật nhé: Em có tăng cân không?”. Một AI, dù tinh vi đến đâu, khi đối mặt với câu hỏi này sẽ bị tê liệt. Nó sẽ cố gắng tính toán một câu trả lời tối ưu. Nó sẽ phân tích lịch sử mối quan hệ, ngữ điệu của câu hỏi, các biểu cảm vi mô trên khuôn mặt, bối cảnh văn hóa, và vô số yếu tố khác. Nhưng vấn đề là, mỗi yếu tố mới được đưa vào phân tích lại mở ra hàng chục nhánh khả năng mới. Một câu trả lời “trung thực” có thể gây tổn thương. Một câu trả lời “ngoại giao” có thể bị coi là giả dối. Tác giả lập luận rằng không gian quyết định ở đây không chỉ “lớn”, mà nó là vô hạn không thể rút gọn. Con người xử lý việc này hàng ngày, không phải bằng cách tính toán, mà bằng trực giác và sự đồng cảm – những thứ mà một thuật toán không thể mô phỏng một cách trọn vẹn.

Ví dụ thứ hai là “Tư duy Bó hẹp trong Thuyết Newton”. Hãy hình dung một AI được đào tạo hoàn hảo trên toàn bộ kho tàng kiến thức vật lý Newton. Sau đó, chúng ta cung cấp cho nó dữ liệu từ thí nghiệm Michelson-Morley, vốn cho thấy tốc độ ánh sáng là bất biến. AI sẽ làm gì? Nó sẽ cố gắng giải thích dữ liệu này bên trong khung Newton. Nó sẽ tạo ra hàng ngàn, thậm chí hàng triệu lý thuyết phụ ngày càng phức tạp: “Có lẽ có một loại gió aether đặc biệt?”, “Có lẽ có những tương tác cơ học vi mô?”. Nó sẽ không bao giờ, một cách tự chủ, đưa ra được ý tưởng của Einstein: “Có lẽ chính thời gian là tương đối”. Lý do là vì khái niệm “thời gian tương đối” không tồn tại trong bộ từ vựng và quy tắc của nó. AI bị khóa chặt trong khung nhận thức của mình. Nó có thể tối ưu hóa bên trong khung, nhưng không thể “nhảy” ra ngoài.

Cuối cùng là ví dụ kinh doanh “Khoảnh khắc Điên rồ”, câu chuyện về việc giải cứu một đài truyền hình đang thua lỗ. Mọi phân tích tài chính dựa trên dữ liệu của ngành truyền thông đều sẽ cho kết quả “Từ chối mua”. Nhưng giải pháp thực sự lại nằm ở một lĩnh vực hoàn toàn khác: kết hợp việc mua đài truyền hình với một thương vụ bất động sản giá rẻ gần đó, rồi biến chính đài truyền hình thành khách thuê cho tòa nhà đó. Một AI sẽ không bao giờ tìm ra giải pháp này, vì nó không có lý do gì để tìm kiếm trong không gian “bất động sản” cho một vấn đề thuộc về “truyền thông”. Sự kết nối này đối với thuật toán là ngẫu nhiên và không thể tìm kiếm một cách có hệ thống.

Cả ba ví dụ này đều chỉ về một điểm: các vấn đề “tổng quát” thực sự thường đòi hỏi khả năng vượt ra ngoài logic và các khung định sẵn – những điều mà các hệ thống thuật toán, về bản chất, không thể làm được.

Hỏi: Những ví dụ này rất trực quan, nhưng chúng có vẻ mang tính triết học hơn là toán học. Lập luận này dựa trên nền tảng lý thuyết nào để khẳng định sự “bất khả thi”, thay vì chỉ là “rất khó”?

Đáp: Đây chính là lúc các định lý nền tảng của khoa học máy tính được đưa vào. Luận điểm này được cho là bắt nguồn từ Vấn đề Dừng (The Halting Problem) của Alan Turing.

Để hiểu điều này, chúng ta cần hiểu bản chất của Vấn đề Dừng. Năm 1936, Turing đặt ra một câu hỏi dường như hợp lý: “Liệu chúng ta có thể viết một chương trình máy tính ‘nhà tiên tri’, gọi là Halts, có khả năng nhìn vào bất kỳ chương trình nào khác (P) và bất kỳ đầu vào nào của nó (I), rồi phán quyết chắc chắn rằng P(I) sẽ chạy xong và dừng lại, hay sẽ chạy mãi mãi?”.

Turing đã chứng minh một cách chặt chẽ rằng một “nhà tiên tri” như vậy là không thể tồn tại. Cách chứng minh của ông, được gọi là “phản chứng”, rất thanh lịch. Ông giả sử Halts tồn tại, rồi từ đó xây dựng một chương trình “kẻ nổi loạn” tên là Paradox. Paradox nhận mã nguồn của một chương trình P làm đầu vào, hỏi Halts xem liệu P có dừng khi tự nhận chính nó làm đầu vào không (P(P)). Sau đó, Paradox sẽ hành động hoàn toàn ngược lại lời tiên tri: nếu Halts nói “dừng”, nó sẽ chạy mãi mãi; nếu Halts nói “không dừng”, nó sẽ dừng lại ngay.

Cái bẫy cuối cùng là khi chúng ta chạy Paradox với chính nó làm đầu vào (Paradox(Paradox)). Lúc này, Paradox sẽ hỏi Halts về chính nó, và dù Halts trả lời thế nào, nó cũng sẽ bị chứng minh là sai. Mâu thuẫn logic này buộc chúng ta phải kết luận rằng giả định ban đầu – rằng Halts tồn tại – là sai.

Lập luận của phe “bất khả thi” là: nếu một AI không thể giải quyết được một vấn đề cơ bản như vậy về hành vi của chính các thuật toán, làm sao nó có thể đạt được trí tuệ “tổng quát”?

Hỏi: Nhưng Vấn đề Dừng có vẻ quá trừu tượng. Một ví dụ khác thường được nêu ra là Giả thuyết Collatz. Nó liên quan như thế nào, và tại sao nó lại được coi là một rào cản?

Đáp: Giả thuyết Collatz là một ví dụ hoàn hảo để đưa Vấn đề Dừng từ thế giới lý thuyết ra gần hơn với thực tế. Giả thuyết này, được đề xuất vào năm 1937, có một quy tắc rất đơn giản:

Bắt đầu với một số nguyên dương bất kỳ. Nếu nó chẵn, hãy chia cho 2. Nếu nó lẻ, hãy nhân với 3 và cộng thêm 1. Sau đó lặp lại quá trình kiểm tra cho đến khi nào n nhỏ hơn hoặc bằng 1 thì dừng.
Giả thuyết cho rằng, dù bạn bắt đầu với số nào, chuỗi này sẽ luôn luôn kết thúc ở số 1.

Sự hấp dẫn của nó nằm ở chỗ quy tắc thì đơn giản nhưng hành vi lại cực kỳ hỗn loạn và khó dự đoán. Các nhà toán học đã dùng siêu máy tính để kiểm tra và xác nhận giả thuyết này đúng với tất cả các số lên đến 2 mũ 68, một con số không thể tưởng tượng nổi. Đã có hàng trăm bài báo được viết, nhiều nỗ lực chứng minh từ các nhà toán học hàng đầu thế giới, nhưng cho đến nay, chưa có ai chứng minh được nó đúng cho tất cả các trường hợp. Chúng ta vẫn không biết liệu có một con số khổng lồ nào đó sẽ bay vào một vòng lặp khác hoặc tiến ra vô tận hay không.

Mã giả định sau sẽ mô tả giả thuyết Collatz:

Cho n nguyên dương
Khi n > 1 thì
    Kiểm tra: n có chẵn hay không
        Nếu n chẵn: n = n / 2
        Nếu n lẻ: n = n x 3 + 1
Lặp lại
//Dừng lại nếu n ≤ 1

Bây giờ, hãy liên kết nó với AGI. Nếu một “nhà tiên tri” AGI Halts tồn tại, nó phải có khả năng giải quyết được Giả thuyết Collatz một cách dễ dàng. Chúng ta chỉ cần viết một chương trình collatz(n) và hỏi AGI Halts: collatz(n) có Dừng hay Không. Nó phải trả lời “YES” ngay lập tức cho mọi n. Việc một bài toán trông đơn giản như vậy lại nằm ngoài tầm với của toàn bộ trí tuệ toán học của nhân loại cho thấy rằng việc dự đoán hành vi “dừng” của các chương trình nói chung là một nhiệm vụ có độ khó vô hạn. Phe “bất khả thi” sử dụng nó như một bằng chứng cho thấy có những hố sâu logic mà ngay cả những thuật toán đơn giản nhất cũng có thể rơi vào, và AGI cũng không phải là ngoại lệ.

Hỏi: Tôi hiểu các rào cản lý thuyết, nhưng tôi muốn quay lại lập luận thực tế hơn. Liệu AGI có thực sự cần phải giải quyết những vấn đề này không? Một AGI chỉ cần có năng lực tương đương con người, mà con người cũng không giải được chúng.

Đáp: Đây chính là đòn phản công mạnh mẽ nhất và hợp lý nhất. Việc đặt ra một tiêu chuẩn siêu phàm cho AGI rồi kết luận nó thất bại là một ngụy biện “người rơm”.

Khi đối mặt với lập luận này, phe “bất khả thi” buộc phải làm rõ quan điểm của mình. Họ sẽ nói rằng, vấn đề không phải là năng lực giải toán của AGI. Vấn đề là cấu trúc của những bài toán bất khả thi đó lại ẩn nấp trong những vấn đề đời thường. Họ sẽ lập luận rằng một cuộc đối thoại xã hội, một quyết định kinh doanh sáng tạo, hay việc hiểu một tác phẩm nghệ thuật đều chứa đựng những yếu tố “không quyết định được” tương tự. Chúng đòi hỏi sự nhảy vọt về trực giác, sự đồng cảm, khả năng chấp nhận mâu thuẫn – những thứ mà họ tin rằng là phi thuật toán.

Cuối cùng, cuộc tranh luận không phải là “AGI có thông minh hơn Einstein không?”. Nó là: “Liệu trí tuệ, theo nghĩa rộng nhất của con người, có phải là một hiện tượng có thể tính toán được hay không?”.


“Chúng ta sẽ tiếp tục cuộc đối thoại, đi sâu vào cây cầu mong manh giữa thế giới logic thuần túy và thực tại vật lý lộn xộn. Đây chính là nơi các lập luận trở nên hiện đại và hấp dẫn nhất.”

Hỏi: Chúng ta đã thảo luận về các rào cản từ lý thuyết tính toán. Nhưng tất cả những điều này, từ Máy Turing đến Vấn đề Dừng, đều tồn tại trong một không gian toán học lý tưởng với các giả định như băng giấy vô hạn và thời gian vô hạn. Một AGI thực sự sẽ phải hoạt động trong thế giới vật lý của chúng ta, một thế giới bị ràng buộc bởi các định luật nhiệt động lực học và năng lượng hữu hạn. Liệu việc áp đặt các nghịch lý từ một thế giới lý tưởng lên một thực thể vật lý có hợp lý không?

Đáp: Đây là một câu hỏi cực kỳ sâu sắc. Bằng cách đưa vật lý vào cuộc chơi, chúng ta đang thách thức chính các định nghĩa cơ bản nhất. Một vòng lặp “vô tận” trên lý thuyết, trong một hệ thống có năng lượng hữu hạn, cuối cùng sẽ phải dừng lại. Điều này dường như vô hiệu hóa nghịch lý của Turing.

Hãy xem xét lại nghịch lý Paradox. Khi Halts dự đoán Paradox sẽ dừng (“YES”), Paradox sẽ đi vào một vòng lặp vô tận. Nhưng, một vòng lặp “vô tận” có thực sự tồn tại không? Trong vũ trụ của chúng ta, định luật thứ hai của nhiệt động lực học cho thấy entropy luôn tăng. Mọi hệ thống tính toán đều tiêu thụ năng lượng và tỏa nhiệt. Một máy tính chạy một vòng lặp “vô tận” trên lý thuyết cuối cùng sẽ hết năng lượng, hoặc các linh kiện của nó sẽ bị hao mòn và hỏng hóc. Do đó, về mặt vật lý, nó sẽ luôn dừng lại. Nếu vậy, lời tiên tri “YES” của Halts hóa ra lại đúng, và nghịch lý dường như biến mất!

Ngược lại, khi Halts dự đoán Paradox sẽ không dừng (“NO”), Paradox sẽ cố gắng thực thi lệnh halt. Nhưng quá trình đó — từ việc hỏi Halts, nhận kết quả, đến việc thực thi lệnh cuối cùng — đều cần thời gian và năng lượng. Nếu hệ thống hết năng lượng ngay trước khi lệnh halt được thực thi thì sao? Lúc này, chương trình đã dừng lại do cạn kiệt tài nguyên, chứ không phải do hoàn thành logic của nó. Vậy hành vi của nó có thể được diễn giải là “không dừng” theo đúng logic bên trong, và lời tiên tri “NO” của Halts một lần nữa lại đúng.

Bằng cách đưa vào các ràng buộc vật lý, bạn đã làm mờ đi ranh giới rõ ràng giữa “dừng” và “không dừng” mà nghịch lý của Turing dựa vào. Điều này mở ra một lĩnh vực hấp dẫn gọi là Hypercomputation, nơi các nhà nghiên cứu khám phá các mô hình tính toán có thể vượt qua giới hạn Turing bằng cách khai thác các hiện tượng vật lý giả định.

Hỏi: Vậy nếu các nghịch lý lý thuyết này có thể bị “vô hiệu hóa” bởi các định luật vật lý, điều đó có nghĩa là rào cản đối với AGI đã được gỡ bỏ? Bài báo dường như đã lường trước được điều này và đưa ra một “bằng chứng thứ hai” dựa trên Lý thuyết Thông tin và Entropy. Liệu bằng chứng này có vững chắc hơn không?

Đáp: Đây là một bước chuyển rất khôn ngoan của tác giả. Nhận thấy các lập luận dựa trên Turing có thể bị thách thức, ông ấy đã đề xuất một rào cản mới, tinh vi hơn, mà ông gọi là “IOpenER” (Information Opens, Entropy Rises – Thông tin Mở ra, Entropy Tăng lên).

Lý thuyết thông tin cổ điển của Claude Shannon cho rằng, khi một hệ thống nhận được thêm thông tin, sự không chắc chắn (entropy) sẽ giảm. Nhưng “IOpenER” lại đưa ra một giả thuyết ngược lại: trong một số vấn đề phức tạp, việc nhận thêm thông tin không làm rõ vấn đề mà lại mở ra nhiều khả năng diễn giải mới, khiến hệ thống trở nên mơ hồ và hỗn loạn hơn. Entropy, thay vì giảm, lại bắt đầu tăng lên một cách không kiểm soát.

Theo lý thuyết này, AI không bị “treo” trong một vòng lặp vô tận, mà nó bị “chìm” trong một đại dương các khả năng ngày càng mở rộng. Hành vi này có thể biểu hiện ra ngoài dưới dạng các câu trả lời vòng vo, mâu thuẫn, hoặc “ảo giác” (hallucination).

Hỏi: Điều này nghe rất hấp dẫn và dường như giải thích được nhiều hành vi kỳ lạ của các mô hình AI hiện tại. Nhưng có một câu hỏi quan trọng: “IOpenER” có phải là một định lý đã được chứng minh như Vấn đề Dừng không?

Đáp: Bạn đã chỉ ra chính xác điểm yếu cốt lõi của “bằng chứng thứ hai”. Không, “IOpenER” không phải là một định lý đã được chứng minh. Nó là một giả thuyết khoa học do chính tác giả hư cấu đề xuất.

Đây là sự khác biệt cơ bản: Vấn đề Dừng là một sự thật toán học nền tảng. “IOpenER” là một ý tưởng suy đoán, dù rất thông minh. Nó có sức giải thích lớn, nhưng nó vẫn chỉ là một giả thuyết đang chờ được kiểm chứng. Rất có thể những hiện tượng mà “IOpenER” mô tả chỉ là triệu chứng của các kiến trúc AI hiện tại. Vì vậy, trong khi lớp lập luận đầu tiên của bài báo dựa trên một tảng đá vững chắc của toán học, lớp thứ hai, dù rất hấp dẫn, lại được xây dựng trên một nền móng kém chắc chắn hơn nhiều.

Hỏi: Vậy sau tất cả, chúng ta nên kết luận điều gì? AGI là một giấc mơ khả thi hay một ảo tưởng toán học?

Đáp: Cuộc đối thoại này cho thấy không có câu trả lời đơn giản. Nó phụ thuộc hoàn toàn vào định nghĩa và giả định của bạn.

Nếu bạn tin rằng trí tuệ, trực giác và sáng tạo là các dạng tính toán phức tạp mà chúng ta chưa hiểu hết, và các giả thuyết như “IOpenER” chỉ mô tả những vấn đề kỹ thuật tạm thời, thì AGI vẫn là một mục tiêu khả thi.

Nhưng nếu bạn tin rằng các rào cản logic như Vấn đề Dừng là tuyệt đối, và chúng sẽ luôn tái sinh dưới những hình thức mới – dù là vòng lặp vô tận trên lý thuyết hay sự bùng nổ entropy trong thực tế – thì AGI theo định nghĩa hiện tại sẽ mãi mãi là một ảo tưởng.

Cuối cùng, cuộc đua đến AGI không chỉ là một cuộc đua về kỹ thuật. Nó còn là một cuộc tìm kiếm triết học sâu sắc về bản chất của chính chúng ta: liệu tâm trí con người có phải là cỗ máy tính toán vĩ đại nhất, hay nó là một thứ gì đó hoàn toàn khác biệt, nằm ngoài tầm với của logic và thuật toán. Câu trả lời, có lẽ, sẽ định hình tương lai của cả nhân loại và máy móc.

Leave a comment