Anthropic mở lại đàm phán với Lầu Năm Góc khi các tập đoàn công nghệ thúc đẩy Trump bỏ nhãn rủi ro: FT
Anthropic Tái Khởi Động Quan Hệ Với Lầu Năm Góc Giữa Bối Cảnh Ngành Công Nghệ Phản Đối Gán Nhãn "Rủi Ro"
Anthropic, một công ty hàng đầu về trí tuệ nhân tạo, được báo cáo là đang nối lại các cuộc thảo luận với Lầu Năm Góc, theo Financial Times. Sự phát triển này diễn ra đồng thời với một nỗ lực rộng lớn hơn của những người chơi trong ngành công nghệ để thuyết phục cựu Tổng thống Trump xem xét lại việc gắn nhãn chuỗi cung ứng AI nhất định là rủi ro cao.
Sự giao thoa giữa phát triển AI và an ninh quốc gia tiếp tục là một trọng tâm tranh luận và điều động chiến lược. Sự tham gia của Anthropic với chính phủ Hoa Kỳ không phải là mới; công ty trước đây đã đảm bảo một hợp đồng đáng kể với Bộ Quốc phòng. Hơn nữa, công nghệ AI của họ được báo cáo là đã được sử dụng trong các hoạt động bí mật, nhạy cảm, được cho là bao gồm cung cấp hỗ trợ cho các hành động quân sự của Hoa Kỳ.
Quan Điểm Chuyên Gia
Việc Anthropic tiếp tục hợp tác với Lầu Năm Góc nhấn mạnh tầm quan trọng ngày càng tăng của AI trong các chiến lược quốc phòng hiện đại. Việc sử dụng AI trong các hoạt động bí mật, ngay cả trong vai trò hỗ trợ, đặt ra những câu hỏi phức tạp về đạo đức và chiến lược. Nó nhấn mạnh sự mờ nhạt ngày càng tăng của ranh giới giữa khu vực AI thương mại và lợi ích an ninh quốc gia. Việc ngành công nghệ thúc đẩy gây ảnh hưởng đến việc gán nhãn "rủi ro" cho thấy những lo ngại về các rào cản tiềm ẩn đối với việc tiếp cận thị trường và đổi mới mà một nhãn như vậy có thể tạo ra. Một câu hỏi quan trọng là mức độ mà các mối lo ngại về an ninh được cân nhắc so với lợi ích của việc áp dụng và phát triển AI rộng rãi.
Từ góc độ thị trường, vị thế của Anthropic đặc biệt thú vị. Là một công ty phát triển AI tiên tiến, việc đảm bảo và duy trì mối quan hệ với các tổ chức chính phủ mang lại một lợi thế đáng kể. Tuy nhiên, điều này cũng đòi hỏi phải điều hướng một môi trường pháp lý phức tạp và giải quyết những giám sát tiềm ẩn của công chúng về các tác động đạo đức của việc triển khai công nghệ của họ.
Điều Cần Theo Dõi
Một số yếu tố sẽ ảnh hưởng đến quỹ đạo tương lai của tình huống này. Thứ nhất, kết quả của các nỗ lực vận động hành lang của ngành công nghệ liên quan đến việc gán nhãn "rủi ro" là rất quan trọng. Một kết quả thuận lợi có thể giảm bớt gánh nặng pháp lý và thúc đẩy sự hợp tác lớn hơn giữa khu vực tư nhân và các cơ quan chính phủ. Ngược lại, việc tiếp tục gán nhãn "rủi ro" có thể dẫn đến việc giám sát chặt chẽ hơn và có khả năng cản trở sự phát triển và triển khai của một số công nghệ AI nhất định.
Thứ hai, thông tin chi tiết về các cuộc thảo luận đang diễn ra của Anthropic với Lầu Năm Góc cần được chú ý chặt chẽ. Bản chất của các hợp đồng hoặc hợp tác mới tiềm năng, cũng như bất kỳ hướng dẫn đạo đức hoặc cơ chế giám sát nào được đưa ra, sẽ làm sáng tỏ mối quan hệ đang phát triển giữa các nhà phát triển AI và quân đội. Diễn ngôn công khai về đạo đức và an ninh AI cũng rất quan trọng. Cuộc tranh luận rộng rãi hơn của công chúng và chính sách về rủi ro và lợi ích của AI có khả năng ảnh hưởng đến bối cảnh pháp lý và định hình các cơ hội và hạn chế cho các công ty như Anthropic.
Cuối cùng, bất kỳ thay đổi nào trong chính quyền chính trị hoặc các ưu tiên chính sách đều có thể thay đổi đáng kể bối cảnh. Sự thay đổi trong lãnh đạo có thể dẫn đến việc đánh giá lại cách tiếp cận hiện tại đối với quy định AI và chiến lược quốc phòng.
Nguồn: Cointelegraph
