Bảo mật của OpenAI không đủ.
Đối với một số nhân viên tại OpenAI, việc tiết lộ thông tin này đã gây ra lo ngại rằng các quốc gia unfriendly với Mỹ, như Trung Quốc, có thể đã thực hiện cuộc tấn công vào máy chủ và đánh cắp công nghệ và thông tin kinh doanh bí mật. Mặc dù hiện nay AI chủ yếu được sử dụng để tạo văn bản tự động hoặc tổng hợp thông tin, nhưng luôn tồn tại nguy cơ rằng các công cụ AI trong tay các phe thù địch của Mỹ có thể trở thành mối đe dọa cho an ninh quốc gia.
Sự cố này, cũng như phản ứng từ ban lãnh đạo của OpenAI, đã đặt ra câu hỏi về mức độ mà công ty nghiên cứu AI hàng đầu thế giới hiện nay coi trọng vấn đề an ninh mạng và bảo mật, cũng như về các xung đột nội bộ trong OpenAI về nguy cơ của trí tuệ nhân tạo.
Leopold Aschenbrenner, giám đốc nghiên cứu kỹ thuật, chịu trách nhiệm đảm bảo rằng công nghệ và công cụ AI trong tương lai không gây hại cho con người. Sau vụ tấn công hacker vào máy chủ của OpenAI, Aschenbrenner đã gửi một thông điệp tới ban giám đốc OpenAI, bày tỏ rằng công ty thiếu những biện pháp cần thiết để ngăn chặn các thế lực thù địch nước ngoài đánh cắp bí mật của họ.Vào đầu năm nay, Leopold Aschenbrenner đã cáo buộc rằng anh bị sa thải khỏi OpenAI vì việc rò rỉ thông tin của công ty và cho rằng điều này là để im lặng anh. Trong một podcast gần đây, Aschenbrenner đã đề cập đến cuộc tấn công mạng vào OpenAI và tiết lộ những chi tiết chưa từng được công bố trước đó. Theo ông, hệ thống bảo mật của OpenAI không đủ mạnh để ngăn chặn việc đánh cắp thông tin quan trọng về các mô hình AI hàng đầu thế giới và có thể bị những nhóm hacker do các chính phủ đối đầu đánh bại.
Người phát ngôn của OpenAI, Liz Bourgeois, đã phản hồi: “Chúng tôi đánh giá cao những lo ngại mà Leopold đã đưa ra khi còn làm việc tại OpenAI, nhưng việc sa thải anh không phải vì lý do đó.” Cô Bourgeois cũng nói thêm về việc phát triển trí tuệ nhân tạo tổng thể AGI, một thuật toán cho phép máy tính hoạt động giống như bộ não con người, nhấn mạnh rằng mặc dù họ có cùng mục tiêu với Leopold trong việc tạo ra AGI an toàn, nhưng họ không đồng ý với những tuyên bố mà anh ấy đã đưa ra về công việc của họ.
Những lo ngại về việc các thế lực đối địch như Trung Quốc có thể tấn công các công ty công nghệ Mỹ không hề không có cơ sở. Tháng trước, chủ tịch Microsoft, Brad Smith, đã trình bày trước Quốc hội Mỹ về cách mà các hacker Trung Quốc đã sử dụng hệ thống máy chủ của họ để tiến hành các cuộc tấn công mạng quy mô lớn vào các hệ thống mạng của các cơ quan chính phủ liên bang.
Bảo vệ quốc gia hay ưu thế cạnh tranh trong lĩnh vực công nghệ?.
Công ty OpenAI không phải là đơn vị duy nhất đang phát triển các hệ thống AI ngày càng mạnh mẽ. Một ví dụ khác là Meta, đã phát hành phiên bản LLM có tên gọi Llama, dưới dạng mô hình ngôn ngữ mã nguồn mở cho cộng đồng sử dụng. Meta tin rằng, nguy cơ tiềm ẩn của AI không quá lớn, và chia sẻ mã nguồn giúp kỹ sư và nhà nghiên cứu trên toàn cầu tìm ra và khắc phục các vấn đề trong lĩnh vực công nghệ AI.
Meta không muốn đề cập đến nguy cơ cụ thể, nhưng chúng ta biết rằng hiện nay các công cụ AI có khả năng tạo ra video, hình ảnh, hoặc văn bản giả mạo để lừa đảo hoặc chi phối ý kiến công chúng.
Từ OpenAI đến Anthropic, từ Google đến Meta, tất cả đều áp dụng các biện pháp hạn chế việc sản xuất nội dung loạn ngôn hoặc có nguy cơ gây hại thông qua việc sử dụng từ khoá có thể vi phạm pháp luật. Các ứng dụng mới dựa trên AI được phát triển sau đó chỉ được cung cấp cho cá nhân và tổ chức doanh nghiệp sau khi áp dụng các biện pháp kiểm soát này. Hy vọng rằng những biện pháp này sẽ ngăn chặn người dùng sử dụng các ứng dụng AI để lan truyền thông tin giả mạo, lừa đảo hoặc thực hiện các hành vi không đạo đức.Tuy nhiên, các hình thức lạm dụng AI hiện nay thường không liên quan đến vấn đề an ninh quốc gia. Hiện chưa có đủ bằng chứng để chỉ ra rằng công nghệ AI mang theo nguy cơ đáng kể trong lĩnh vực này. Các nghiên cứu từ OpenAI, Anthropic và các tổ chức khác trong năm qua đã chỉ ra rằng, đối với mặt an ninh quốc gia, nguy cơ tiềm ẩn từ công nghệ AI không lớn hơn so với nguy cơ từ các công cụ tìm kiếm trực tuyến. Theo Daniela Amodei, đồng sáng lập và chủ tịch của Anthropic, các công nghệ AI mới nhất sẽ không đe dọa an ninh quốc gia nếu chúng là mô hình mã nguồn mở, ngay cả khi mã nguồn bị hacker xâm nhập.
Amodei cho biết: “Nếu một cá nhân khác sở hữu công nghệ AI, liệu nó có ảnh hưởng tiêu cực đến xã hội hay không? Câu trả lời của chúng tôi là không. Tuy nhiên, liệu nó có thể trở thành công cụ cho những kẻ xấu lợi dụng hay không? Điều này hoàn toàn có khả năng.”
Vẫn là vấn đề của việc kiểm soát lạm dụng trí tuệ nhân tạo.
Tuy vậy, các nhà nghiên cứu và các giám đốc ngành công nghệ đã lâu đã bày tỏ lo ngại về việc AI có thể được sử dụng để phát triển ra các mầm bệnh, vũ khí sinh học hoặc mã độc để tấn công vào hệ thống của chính phủ và quân đội. Một số người, bao gồm cả cha đẻ của mạng neural network AI phổ biến nhất hiện nay, tin rằng AI có thể đe dọa sự tồn tại của loài người.
Nhiều công ty phát triển AI như OpenAI và Anthropic đã thiết lập các hạn chế trong quá trình nghiên cứu kỹ thuật và công nghệ AI. Sau khi Ilya Sutskever từ chức, OpenAI đã thành lập một ủy ban an toàn và an ninh AI để nghiên cứu cách đối phó với nguy cơ tiềm ẩn từ công nghệ AI. Uỷ ban này có sự tham gia của Paul Nakasone, một cựu tướng quân đội Mỹ và là một phần của ban lãnh đạo OpenAI.
Trong khi đó, các quan chức chính phủ và các nhà lập pháp ở nhiều bang tại Mỹ đang cố gắng đẩy nhanh quá trình thiết kế luật và quy định để kiểm soát việc phát triển công nghệ AI. Tuy nhiên, các chuyên gia cho rằng sẽ mất nhiều năm, thậm chí thập kỷ, cho AI trở thành mối đe dọa thực sự đối với loài người.Các công ty Trung Quốc hiện đang phát triển các hệ thống và mô hình trí tuệ nhân tạo (AI) với hiệu suất gần bằng các hệ thống do các công ty Mỹ phát triển. Thậm chí, ở một số khía cạnh, Trung Quốc đã đào tạo được nhiều kỹ sư và nhà nghiên cứu AI hơn so với Mỹ. Trong số các nhà nghiên cứu AI hàng đầu, người mang quốc tịch Trung Quốc chiếm gần một nửa.
Theo Clement Delangue, CEO của nền tảng Hugging Face, một trang web lưu trữ chia sẻ các dự án AI mã nguồn mở, ông cho rằng việc Trung Quốc vượt mặt Mỹ trong lĩnh vực công nghệ AI không phải là điều quá xa xôi.
Nhiều nhà nghiên cứu và các quan chức an ninh hàng đầu của Mỹ cho biết rằng, hiện nay, các thuật toán tính toán ma trận và số thực dấu phẩy động để tính xác suất tạo ra nội dung, một phần quan trọng của mô hình AI, chưa phải là mối đe dọa. Tuy nhiên, họ cũng cho rằng trong tương lai, AI có thể trở nên nguy hiểm và cần phải kiểm soát chặt chẽ hơn.
Susan Rice, cựu cố vấn an ninh quốc gia cho tổng thống Joe Biden và cựu cố vấn an ninh quốc gia cho cựu tổng thống Barack Obama, cho rằng ngay cả khi khả năng xảy ra tình huống tồi tệ nhất là rất thấp, nếu tác động và hậu quả của nó lớn, chính phủ sẽ phải xử lý một cách nghiêm túc. Bà không tin rằng việc AI trở thành mối đe dọa an ninh là một khái niệm khoa học viễn tưởng như nhiều người nghĩ.
Theo: The New York Times