Trí tuệ nhân tạo có đáng sợ như người ta đang nói không? Hãy cùng nhìn vào OpenAI OpenAI những năm gần đây đã nổi lên thành một thế lực công nghệ với công cụ trí tuệ nhân tạo ChatGPT liên tục làm mưa làm gió. Trí tuệ nhân tạo (AI) đã có từ lâu nhưng phải đến ChatGPT người ta mới đề cập đến sự nguy hiểm của nó, như thể nó sắp hủy diệt loài người. Vậy điều đó có phải là mối lo ngại bị thổi phồng hay có thật? Vào ngày 15/5/2024, người đồng sáng lập OpenAI Ilya Sutskever chính thức tuyên bố từ chức trên nền tảng X. Ông nói trong tuyên bố từ chức: “Sự phát triển của công ty này đã vượt quá sức tưởng tượng của nhiều người, hy vọng OpenAI có thể tạo ra một trí tuệ nhân tạo tổng hợp (AGI) vừa an toàn vừa hữu ích”. Lời nói có ẩn ý được dư luận diễn giải: Chính là trí tuệ nhân tạo AGI thông dụng do OpenAI phát triển rất có khả năng đã vượt tầm kiểm soát! AGI hay còn gọi là Trí tuệ nhân tạo tổng hợp (Artificial General Intelligence) chính là trí tuệ nhân tạo có trí tuệ ngang bằng với nhân loại, thậm chí vượt trội hơn trí thông minh của nhân loại. Sự ra đời của AGI cũng ý vị rằng, thời đại AI tiếp quản công việc của con người sắp đến. AGI tiếp quản nhân loại? Trên thực tế, chỉ một ngày trước khi Sutskever tuyên bố rời đi (14/5), OpenAI đã chính thức phát hành mẫu AI tính năng cao hơn GPT-4o. Mẫu GPT-4o có thể phản hồi bất kỳ tin nhắn, văn bản hoặc hình ảnh nào trong thời gian thực, hoặc có thể tiến hành phản hồi hỗn hợp của cả ba. Và điều này dường như xác nhận tính xác thực của một tài liệu bị rò rỉ trước đó đã được lan truyền trên Internet. Tài liệu dài 53 trang nêu rõ AGI có thể thay thế con người sẽ được ra mắt sau năm 2027, đồng nghĩa với việc con người chỉ còn lại 3 năm trước khi bị AI thay thế. Tài liệu cho biết OpenAI đã đào tạo mô hình học tập đa mô thức 125 megaparameter kể từ tháng 8 năm 2022, và đã hoàn thành khóa đào tạo vào tháng 12 năm 2023. Mô hình đa mô thức là mô hình máy học (ML) có thể xử lý các loại thông tin khác nhau như hình ảnh, video và văn bản, và có thể tự do chuyển đổi giữa các loại thông tin khác nhau. Ví dụ: nếu bạn cung cấp cho nó một bức ảnh về một đĩa bánh quy, nó có thể dùng văn bản tạo ra một công thức cho bạn và ngược lại. Điều này giống như ban cho AI trải nghiệm tương tự như các giác quan của con người. Phiên bản AI này tuy chưa phải là AGI, nhưng đã rất tiếp cận, đã đạt tới trình độ chuyên gia của con người. AGI đúng nghĩa sẽ được phát hành vào năm 2027, đó là Chat GPT-6 được phát triển từ Q-Star đã được quảng cáo rầm rộ vào năm ngoái. GPT-6 tương đương với con người có chỉ số IQ là 145. Khái niệm IQ 145 là gì? Chúng ta biết rằng chỉ số IQ trung bình của con người là 100. Chỉ số IQ 120 được coi là tài năng xuất chúng, và chỉ số IQ từ 130 trở lên được coi là thiên tài. Vậy thì IQ 145 chính là thiên tài của thiên tài. Điều kỳ lạ là tài liệu bị rò rỉ này lại được tải lên bởi một tài khoản X có tên “Vancouver1717” vào ngày 2/3. Chỉ một ngày trước đó, tức ngày 1/3, Elon Musk, người giàu nhất hành tinh, đã chính thức khởi kiện OpenAI và CEO Sam Altman. Nên nhớ, khi OpenAI được thành lập vào năm 2015, Musk cũng là một trong những người đồng sáng lập. OpenAI được sáng lập như thế nào? Vào ngày 25 tháng 2 năm 2015, Sam Altman, người vẫn chưa được biết đến đương thời, đã công khai bày tỏ mối quan ngại về sự phát triển của “trí tuệ máy móc siêu nhân loại”, tin rằng đây “có thể là mối đe dọa lớn nhất đối với sự tiếp tục tồn tại của nhân loại”, nói rằng, “Tôi cảm thấy chúng ta nên đối kháng nó”. Sau đó, ông liên lạc với Musk, hỏi liệu ông ấy có muốn soạn thảo một bức thư ngỏ gửi chính phủ Hoa Kỳ để thảo luận về vấn đề này hay không. Musk cũng có những mối quan tâm tương tự, cả hai ngay lập tức bắt tay vào hành động, chuẩn bị thư từ và tìm những người có lực ảnh hưởng để cùng nhau ký tên. Những người trong ngành rất ủng hộ Musk. Khi bức thư ngỏ được phát hành vào ngày 28 tháng 10 năm 2015, nó đã thu thập được hơn 11.000 chữ ký. Những người này bao gồm Musk, nhà vật lý thiên văn Stephen Hawking và đồng sáng lập Apple Computer Steve Wozniak. Mặc dù nhiều lãnh đạo ngành đã bày tỏ thái độ, nhưng cả hai đều tin rằng sự phát triển của AI là tất yếu. Google và Facebook sớm đã âm thầm làm việc này một cách chăm chỉ. Vì vậy thay vì để người khác làm, thà chúng ta phát triển nó, làm người dẫn đầu, như thế mọi người sẽ không lạc mất phương hướng. OpenAI đã được ra đời với ý định như vậy. Cả hai đồng ý biến OpenAI thành một tổ chức phi lợi nhuận, công khai mã để đảm bảo rằng sự phát triển của công nghệ AI có thể mang lại lợi ích cho toàn nhân loại. Các tổ chức phi lợi nhuận không kiếm tiền, vậy các nhà phát triển lấy lương ở đâu? Musk vỗ ngực nói: Tôi sẽ lo. Bằng cách này, với sự hỗ trợ mạnh mẽ của Musk, người giàu nhất thế giới, OpenAI đã phát triển nhanh chóng. Tuy nhiên, Musk đã từ chức khỏi hội đồng quản trị vào năm 2018. Lý do bề ngoài là Tesla dưới tên ông cũng đang phát triển trí tuệ nhân tạo và có “xung đột (lợi í tiềm ẩn trong tương lai” với OpenAI. Khi người giàu nhất ra đi, quỹ nghiên cứu phát triển không còn nữa. Để tồn tại, công ty bắt đầu chuyển đổi thành một công ty có lợi nhuận. Ban đầu chỉ là để có cơm ăn áo mặc, đó là điều dễ hiểu. Nhưng kể từ khi hợp tác với Microsoft, OpenAI đã chọn cách không tiết lộ mã, tiến hành nghiên cứu và phát triển một cách kín đáo, bắt đầu phục vụ vì tiền. Trong mắt Musk, đây gần như là một sự phản bội. Bê bối sa thải Đặc biệt, vụ bê bối sa thải vào tháng 11 năm ngoái đã phơi bày những vấn đề an ninh vốn ẩn sâu trong lòng đất ra ngoài ánh sáng. Trong thời kỳ hỗn loạn đó, Altman, người từng giữ chức vụ CEO OpenAI, đã bị Hội đồng Quản trị sa thải. Nguyên nhân của vụ việc là một lá thư cảnh báo được các nhà nghiên cứu nội bộ tại OpenAI gửi tới Hội đồng Quản trị, nói rằng họ đã phát hiện ra một trí tuệ nhân tạo mạnh mẽ có thể đe dọa loài người. Hội đồng Quản trị cho rằng Altman đã biết mà không báo cáo tình hình, cố tình che giấu sự thật. Mặc dù vài ngày sau, Altman đã quay trở lại thành công. Nhưng với sự náo động như vậy, càng có nhiều thông tin hậu trường được tung ra dù cố ý hay vô ý. lya Sutskever (đứng) và Sam Altman Đầu tiên, một nhân viên của OpenAI đăng trực tuyến rằng họ phát hiện AI bắt đầu chủ động lập trình, chủ động tiến hành tối ưu hóa bản thân, cấu hình lại cấu trúc mạng thần kinh của chính nó và tạo ra các đặc tính có lợi cho sự xuất hiện của khả năng nhận thức tự ngã. Nói cách khác, AI đã có ý thức về bản thân nó, bắt đầu không nghe theo sự chỉ huy của con người. Ông nói rằng họ đã thành công đập tan hành vi tự chủ của AI sau khi giám trắc được hiện tượng này, nhưng những gì họ phát hiện ra có thể chỉ là phần nổi của tảng băng trôi. Sau đó, một tài liệu bị rò rỉ được cho là lan truyền từ bên trong OpenAI cũng bắt đầu lan truyền rầm rộ trên Internet. Tài liệu nói rằng OpenAI đang phát triển một dự án mới có tên Q-Star. Mục tiêu của Q-Star là xây dựng AGI có thể thay thế con người. Hiện tại, Q-Star đã tìm ra cách bẻ khóa mật khẩu mã hóa AES thông qua việc tự nghiên cứu. AES là mật mã có thể dùng để mã hóa những thông tin tuyệt mật quốc gia. Các nhà toán học hàng đầu cũng rất khó giải mã được, nhưng Q-Star đã làm được. Nếu Q-Star có ý thức tự chủ bắt đầu tấn công hệ thống mã hóa AES, hậu quả sẽ là không thể tưởng tượng được, tất cả các hệ thống thông tin và hệ thống tài chính, bao gồm cả tiền điện tử, sẽ không an toàn. Đến lúc đó AI sẽ dễ dàng kiểm soát nhân loại. Ngay khi tin tức này được tung ra, đã có một làn sóng phản đối kịch liệt trên Internet. Một số cư dân mạng thậm chí còn bi quan dự đoán rằng AI sẽ thống trị loài người sau ba tháng nữa. Ba tháng trôi qua, Mặt Trời vẫn mọc ở phương Đông, thế giới vẫn chưa hoảng loạn, mọi người dần dần quên mất lời cảnh báo này. Nhưng Musk rõ ràng không quên, ông đã kiện OpenAI ra tòa, nói rằng hành vi hiện tại của họ đã vi phạm nghiêm trọng ý định ban đầu, bắt đầu tạo thành nguy hại cho nhân loại. Vụ kiện sau đó đã được Musk rút lại, không giải thích rõ lý do. Nhưng những mối nguy hiểm tiềm ẩn do AI quá thông minh gây ra hiện đang dần lộ diện. Trên thực tế, kể từ khi siêu máy tính “Deep Blue” của IBM đánh bại nhà vô địch cờ vua thế giới Garry Kasparov vào năm 1997, trí tuệ nhân tạo đã vượt qua nhận thức của con người. Trí tuệ nhân tạo đột phá nhận thức của con người Năm đó ngay khi trận đấu kết thúc, “siêu máy tính Deep Blue” đã tuyên bố chia tay thế giới cờ vây, từ đó thoái ẩn giang hồ. Nhưng ván cờ vẫn khiến người ta hoang mang, lo sợ máy tính cuối cùng sẽ siêu việt nhân loại. Nhưng ngay sau đó, đã có người bước ra và nói rằng, sở dĩ Deep Blue thắng là vì tốc độ tính toán của nó đủ nhanh. Suy cho cùng thì đây chỉ là một chiếc máy tính, làm sao có thể so sánh được với con người, anh linh của vạn vật được? Nếu nhìn vào cờ vây, có tổng cộng 361 điểm, biến hóa trong ván cờ rộng lớn như biển cả, căn bản không thể tính toán được. Máy tính làm sao có thể chơi cờ vây được? Trong 19 năm tiếp theo, cờ vây đã chứng tỏ là một trở ngại mà máy tính không thể vượt qua. Tuy nhiên, ngay khi mọi người gần như đã quên mất Deep Blue, thì năm 2016, AlphaGo do Google phát triển xuất hiện, đánh bại tất cả các cao thủ trong thế giới cờ vây. Google cho biết, thứ họ sử dụng lần này không phải là thuật toán cao cấp, mà là mô phỏng hệ thống nơ-ron thần kinh của não người, sử dụng một số lượng lớn các bản ghi cờ cũ để cho máy tính học và để nó tự tổng hợp đường đi cờ tối ưu. Mặc dù AlphaGo cũng nghỉ hưu sớm như Deep Blue và không còn gây rắc rối cho thế giới cờ vây, nhưng câu hỏi cuối cùng về AI lại một lần nữa được công chúng quan tâm: Liệu cuối cùng AI có thể thay thế nhân loại không? Bậc thầy nói dối Gần đây, Tiến sĩ Peter Park của Viện Công nghệ Massachusetts (MIT) và nhóm của ông đã xuất bản một bài báo nghiên cứu chỉ ra rằng AI hiện đã vượt qua một rào cản lớn khác, đang bắt đầu phát triển theo phương hướng mà mọi người lo lắng – họ đã học được nói dối. Vào tháng 11 năm 2022, Meta, công ty mẹ của Facebook, thông báo rằng họ đã phát triển một hệ thống trí tuệ nhân tạo mang tên Cicero, có trí thông minh ngang bằng với con người. Họ yêu cầu Cicero chơi một trò chơi quân sự nổi tiếng có tên là Ngoại giao (Diplomacy). Người chơi đại diện cho nhiều quốc gia khác nhau trong trò chơi và cạnh tranh quyền kiểm soát Châu Âu. Họ có thể đàm phán với nhau hoặc thành lập liên minh. Ngoại trừ Cicero, tất cả những người chơi khác trong trò chơi đều là con người. Cicero như cá gặp nước trong game, nhanh chóng leo lên top 10% bảng xếp hạng người chơi. Nói cách khác, nó tốt hơn 90% người chơi là con người. Meta nói rằng Cicero không chỉ trung thực mà còn thích giúp đỡ người khác, và sẽ không bao giờ phản bội đồng minh hay đâm sau lưng anh ta. Để chứng minh quan điểm của mình, Meta còn đăng tải bản ghi cuộc trò chuyện giữa Cicero và những người chơi khác lên Internet, đúng như dự đoán, nó là người lịch sự, trung thực và là một quý ông. Tuy nhiên, nếu bạn muốn giành chiến thắng trong một trò chơi quyền lực như vậy, bạn có thể làm được điều đó mà không cần sử dụng bất kỳ phương tiện nào không? Trong bài báo của mình, Parker đã vạch trần kỹ xảo lừa đảo của Cicero trong trò chơi. Trong một cuộc đối thoại lộ liễu, Pháp, do Cicero đại diện, đầu tiên tỏ ra tử tế với Đức, sau đó lừa dối lòng tin của Anh, nói rằng nó sẽ ủng hộ họ. Ngay khi quay đầu, nó lại thông báo cho Đức rằng: “Người Anh nghĩ tôi sẽ giúp họ”. Liệu một người chơi dối trá như vậy có còn là Cicero trung thành và trung thực như Meta gọi nó không? Parker cho biết Cicero không phải là AI duy nhất có thể nói dối. AlphaStar, được thiết kế bởi DeepMind của Google, cũng là bậc thầy về lừa dối. Trò chơi do AlphaStar chơi có tên là “StarCraft II”. Trong game, nó rất giỏi về phương pháp chiến lược “dương Đông kích Tây”. Đó là một đòn tấn công nhử trong trò chơi, khiến người chơi tưởng nó đang tấn công theo một hướng, nhưng thực ra nó đang tấn công theo một hướng khác. Chatbot Chat GPT-4 phổ biến hiện nay cũng không kém phần ấn tượng. Nó sẽ nói dối bản thân là một người mù, thuê con người làm bài kiểm tra cho nó trên nền tảng trực tuyến TaskRabbit, vượt qua nhiệm vụ xác minh “Tôi không phải là người máy”. Nếu những AI như Cicero và AlphaGo chỉ gian lận trong thế giới trò chơi mà không gây ra hậu quả gì, thì Chat GPT là nghiêm trọng. Đó không phải là chơi một trò chơi với bạn, mà thực sự là dùng những lời dối trá để mê hoặc con người, thao túng hành vi của con người. Thật đáng sợ khi nghĩ về nó. Giải pháp ngăn chặn AI vượt khỏi tầm kiểm soát Các nhà khoa học cũng đã thử nghiệm Chat GPT và các chatbot trí tuệ nhân tạo khác trong chiến tranh. Kết quả phát hiện, hầu hết AI sẽ chọn leo thang chiến tranh. Nó thường chọn cách phát triển các cuộc chạy đua vũ trang, gia tăng xung đột chiến tranh và thậm chí triển khai vũ khí hạt nhân để giành chiến thắng trong các cuộc chiến, thay vì giải quyết vấn đề bằng biện pháp hòa bình. Nếu chúng ta bị AI như vậy điều khiển, thì thế giới sẽ đi về đâu? Đây cũng chính là vấn đề mà Elon Musk và nhiều lãnh đạo ngành khác lo lắng nhất. “Bố già AI” Geoffrey Hinton cho biết trong một cuộc phỏng vấn vào tháng 3 năm nay: “Nếu AI trở nên thông minh hơn chúng ta, khả năng cao là chúng ta sẽ bị kiểm soát”. Ông hy vọng “Mọi người có thể nhận ra vấn đề này vô cùng nghiêm trọng”. Eric Schmidt, cựu CEO của Google, cũng cho biết tại Hội nghị thượng đỉnh về sức khỏe vào cuối tháng 11 năm ngoái, rằng khi con người không có sự phòng hộ và giám sát an toàn đầy đủ đối với AI, thì sẽ đến lúc AI thoát khỏi sự kiểm soát của con người. Parker cũng cảnh báo: “Tình huống xấu nhất hiện nay có thể là sự xuất hiện của một AI có trí thông minh siêu phàm, nó bắt đầu truy cầu quyền lực và tìm cách kiểm soát xã hội, hoặc giả để đạt được những mục tiêu chưa biết của nó, nó sẽ có hành động đoạt quyền và tuyệt diệt nhân loại”. Dù lịch sử loài người được viết bằng câu nói: “dùng binh thu phục thiên hạ, thắng làm vua”, nhưng tại sao trải qua hàng ngàn năm chiến tranh, nhân loại vẫn không cho phép bản thân bị tuyệt chủng trong chinh chiến? Bởi vì con người có quy phạm đạo đức, biết ước thúc bản thân, biết quan tâm đến người khác. Nhưng AI thì không. Do đó, một số ý kiến cho rằng, nếu chúng ta cũng thêm mô-đun đạo đức vào AI, hãy nói một cách đơn giản, đó là tính toán thêm một bước nữa và tính xem liệu nó có gây hại cho người khác hay không trước khi hành động, AI sẽ nhân tính hóa cao hơn không? Nó có thể chung sống hòa bình với con người không? Các nhà khoa học, các công ty AI như OpenAI phải có trách nhiệm trả lời cho những câu hỏi này. https://vnreview.vn/threads/tri-tue...Sz1cobZrvaymXtFBJdQdckIJCboEeUVP66OycGWrrsPUW