Google từ bỏ nguyên tắc AI “không gây hại”, mở đường cho hợp tác quân sự

Google Từ Bỏ Nguyên Tắc Ai “Không Gây Hại”, Mở Đường Cho Hợp Tác Quân Sự

Google đã đi một chặng đường dài kể từ những ngày đầu khi nguyên tắc “Không làm điều ác” (Don’t be evil) là kim chỉ nam của hãng. Sự thay đổi này từng được ghi nhận trước đây vì nhiều lý do, nhưng lần này, Google đã âm thầm xóa một phần quan trọng trong nguyên tắc AI của mình. Đoạn bị xóa từng cam kết tránh sử dụng AI trong các ứng dụng có khả năng gây hại, bao gồm cả vũ khí.

Sự thay đổi này, lần đầu tiên được Bloomberg phát hiện, đánh dấu một sự dịch chuyển đáng kể trong lập trường của Google về phát triển AI có trách nhiệm.

Google xóa bỏ cam kết “không phát triển AI gây hại”

Trước đây, trong phần “Các ứng dụng AI mà chúng tôi sẽ không theo đuổi”, Google từng tuyên bố rõ ràng rằng công ty sẽ không phát triển công nghệ “gây ra hoặc có khả năng gây hại tổng thể”, với vũ khí là một ví dụ cụ thể.

Khi được hỏi về thay đổi này, Google đã dẫn chứng một bài viết trên blog của James Manyika, Phó chủ tịch cấp cao của Google, và Demis Hassabis, người đứng đầu Google DeepMind.

Google Từ Bỏ Nguyên Tắc Ai “Không Gây Hại”, Mở Đường Cho Hợp Tác Quân Sự

Bài viết nhấn mạnh rằng các nền dân chủ nên dẫn đầu trong việc phát triển AI, dựa trên các giá trị cốt lõi như tự do, bình đẳng và tôn trọng nhân quyền. Nó cũng kêu gọi sự hợp tác giữa các công ty, chính phủ và tổ chức có cùng giá trị để tạo ra AI bảo vệ con người, thúc đẩy tăng trưởng toàn cầu và hỗ trợ an ninh quốc gia.

Tuy nhiên, động thái này đã dấy lên lo ngại trong giới chuyên gia AI. Margaret Mitchell, cựu đồng lãnh đạo nhóm AI đạo đức của Google và hiện là nhà khoa học trưởng về đạo đức tại Hugging Face, nói với Bloomberg rằng việc xóa bỏ điều khoản “gây hại” có thể mang đến những hậu quả nghiêm trọng. “[Điều này] có nghĩa là Google giờ đây có thể trực tiếp triển khai công nghệ có khả năng giết người,” bà bày tỏ quan ngại.

Google và xu hướng “làm mờ ranh giới” đạo đức trong AI

Việc điều chỉnh nguyên tắc AI của Google là một phần của xu hướng rộng hơn trong ngành công nghệ, khi các gã khổng lồ như Meta và Amazon cũng đang thu hẹp các cam kết đạo đức trước đây. Gần đây, Meta đã tuyên bố chấm dứt chương trình kiểm chứng thông tin từ bên thứ ba tại Mỹ, trong khi Amazon và nhiều công ty khác đang giảm bớt các nỗ lực đa dạng và hòa nhập.

Dù Google luôn khẳng định AI của mình không được sử dụng để gây hại cho con người, nhưng trong những năm gần đây, hãng đã dần mở rộng hợp tác với các tổ chức quân sự. Công ty đã cung cấp dịch vụ đám mây cho quân đội Mỹ và Israel, dẫn đến các cuộc biểu tình nội bộ từ nhân viên.

Google chắc chắn hiểu rằng quyết định này sẽ vấp phải phản ứng dữ dội. Tuy nhiên, có vẻ như hãng đã tính toán rằng lợi ích từ lập trường mới sẽ vượt qua những chỉ trích. Với thay đổi này, Google có thể cạnh tranh trực tiếp hơn với các đối thủ đã tham gia vào dự án AI quân sự, đồng thời mở ra cơ hội nhận được nhiều nguồn tài trợ nghiên cứu và phát triển từ chính phủ, giúp đẩy nhanh tiến bộ trong lĩnh vực AI.

Bình luận (0 bình luận)