
Ngày 28 tháng 2,
OpenAI đã ký một hợp đồng với Bộ Quốc phòng (DOW) để triển khai các mô hình AI của mình trên mạng phân loại của bộ này. Thương vụ này xuất hiện sau khi DOW tuyên bố chấm dứt hợp tác với Anthropic, một công ty AI tư nhân khác, vì công ty này từ chối gỡ bỏ các hàng rào an toàn liên quan đến cách sử dụng mô hình AI Claude.
Anthropic ban đầu đã ký thỏa thuận trị giá 200 triệu đô la vào tháng 7 năm 2025 để phát triển các công cụ AI phục vụ an ninh quốc gia Mỹ. Tuy nhiên, khi DOW muốn sử dụng các công cụ AI cho giám sát nội địa trên diện rộng và phát triển vũ khí tự động, Anthropic đã từ chối.
Ngược lại, OpenAI đã vội vàng ký kết thỏa thuận với DOW, dấy lên những lo ngại nghiêm trọng về mặt đạo đức do công ty này không quan tâm đến việc các công cụ của mình có thể nguy hiểm như thế nào cả trong nước lẫn ở nước ngoài. Hành động này cũng đi ngược lại chính sách năm 2023 của OpenAI, vốn cấm rõ ràng việc quân đội tiếp cận các mô hình AI của họ.
Việc này khiến các thành viên CFA lo ngại vì vào tháng 2 năm 2025, Văn phòng Kỷ luật đã công bố một sáng kiến công-tư trị giá 17 triệu đô la với công ty tư nhân OpenAI, nhằm biến CSU thành trường đại học đầu tiên vận hành bằng trí tuệ nhân tạo.
Thỏa thuận giữa CSU và OpenAI được thực hiện không có sự đồng thuận của giảng viên và làm tổn hại đến tính toàn vẹn của một trường đại học mà sứ mệnh hàng đầu là phục vụ sinh viên của mình.
Thỏa thuận của Kỷ luật trưởng García với OpenAI đại diện cho một bước tiến nguy hiểm và đe dọa nghiêm trọng từ lợi ích tư nhân vào cơ sở hạ tầng và mục tiêu phát triển lực lượng lao động của CSU. Chính công ty sẵn sàng hợp tác với một chính phủ liên bang từng trực tiếp gây ra việc gia tăng bạo lực hệ thống đối với các cộng đồng da đen và da màu, người LGBTQIA+, phụ nữ và người khuyết tật, giờ đây lại đang tham gia sâu vào nền giáo dục của sinh viên chúng ta — và có khả năng là theo hướng xấu hơn.
Sự nhiệt tình của OpenAI trong việc ký hợp đồng với DOW cho thấy ưu tiên của họ: lợi nhuận hơn là an toàn và phúc lợi con người. Rất có thể họ cũng sẽ ưu tiên lợi nhuận hơn sinh viên, và xem sinh viên chỉ là nơi để huấn luyện, cải tiến và hoàn thiện các chương trình AI của mình.
Tệ hơn nữa, Văn phòng Kỷ luật đã tiếp tay cho việc AI tiếp tục duy trì những định kiến gây hại, bao gồm thiên vị chủng tộc và giới tính, thông qua việc hoàn toàn không đề cập — dù chỉ một chút — đến những lo ngại đã được ghi nhận rõ ràng. Không có minh bạch hay trách nhiệm giải trình nào trong sáng kiến AI của họ.
Trong tài liệu Hướng dẫn sử dụng AI một cách đạo đức và có trách nhiệm, ban quản lý CSU không đề cập đến bất kỳ vấn đề nào trong số này, về cơ bản là phớt lờ thực tế của sinh viên chúng ta, những người rất nhiều đến từ các nền tảng bị đại diện thiếu và bị thiệt thòi.
Tháng 3 năm 2025, CFA đã nộp đơn khiếu nại hành vi bất công chống lại Văn phòng Kỷ luật vì từ chối họp và trao đổi về cách sáng kiến AI sẽ tác động đến giảng viên.
Tháng 9 năm 2025, Elaine Bernal, Phó Chủ tịch Phụ trách Giảng viên Khu vực Nam của CFA và giảng viên tại CSU Long Beach, đã đưa ra lời khai về các mối đe dọa mà AI đặt ra đối với hệ thống giáo dục, quyền riêng tư dữ liệu, sở hữu trí tuệ, tự do học thuật và tính bền vững môi trường.
“Hãy nói rõ về định kiến,” Bernal nói. “AI không chỉ tạo ra những lỗi ngẫu nhiên; nó tái sản xuất chủ nghĩa phân biệt chủng tộc có hệ thống. Như học giả Ruha Benjamin nhắc nhở chúng ta trong cuốn Race After Technology, các hệ thống này không trung lập. Chúng mã hóa sự bất bình đẳng, bao gồm cả sự bài trừ người da đen, vào thiết kế của mình. Sinh viên CSU, những người da đen, bản địa, Latinx, nhập cư, đồng tính, chuyển giới, thế hệ đầu tiên, khuyết tật, không nên bị trao những công cụ củng cố sự phân biệt đối xử mà họ đã phải đối mặt trong xã hội. Là một giảng viên người Philippines đồng tính, tôi hiểu rõ cá nhân những bất công này.”
Đáp lại những lo ngại này, Đội thương lượng của CFA cũng đã đề xuất một điều khoản riêng biệt trong Thỏa ước thương lượng tập thể về AI, tập trung vào việc thiết lập hàng rào an toàn trong việc sử dụng AI và bảo vệ quyền lợi giảng viên.
Về chính sách lập pháp, chúng tôi đang bảo trợ Dự luật Thượng viện 928, nhằm bảo vệ nhân viên CSU khỏi sự xâm nhập của trí tuệ nhân tạo.
Chúng tôi nhắc nhở bạn hãy ký vào bản kiến nghị này yêu cầu Kỷ luật trưởng García không gia hạn hợp đồng của CSU với OpenAI và sử dụng số tiền đó để bảo vệ việc làm tại các cơ sở CSU.
Các thành viên của chúng tôi sẽ tiếp tục nỗ lực đảm bảo rằng sinh viên nhận được nền giáo dục không bị chi phối bởi các lợi ích doanh nghiệp, vốn chỉ quan tâm đến lợi nhuận và không thực sự quan tâm đến kết quả giảng dạy hay học tập tại CSU.
Tham gia Hiệp hội Giảng viên California
Tham gia hàng ngàn giảng viên, nhân viên thư viện, cố vấn và huấn luyện viên để bảo vệ tự do học thuật, quyền giảng viên, môi trường làm việc an toàn, giáo dục đại học, chất lượng học tập của sinh viên và đấu tranh cho công lý chủng tộc và xã hội.
0 comments Blogger 0 Facebook
Đăng nhận xét