Đừng Để Những Nguyên Tắc Bóp Chết Sự Phát Triển Của AI

Cho đến hiện tại, nước Mỹ đã có cái nhìn cởi mở hơn về công nghệ AI. Đây chính là lý do vì sao mà ngày càng có nhiều thành tựu liên qua đến AI tại Mỹ hơn là tại các quốc gia Châu Âu vốn quan ngại về công nghệ này.

Nguyên nhân chủ yếu của việc chính phủ Mỹ không dùng những điều luật để ngăn chặn sự phát triển của AI chính là không có một agency liên bang độc đoán nào dành riêng cho AI tại Mỹ. Thay vào đó, hệ thống chính quyền tại bang và liên bang sẽ trực tiếp giám sát theo dõi lĩnh vực công nghệ này. Chẳng hạn như Ủy ban Thương mại Liên bang (The Federal Trade Commission) và Cơ quan An toàn Giao thông Cao tốc Quốc gia Mỹ (National Highway Traffic Safety Administration) gần đây đã tổ chức một cuộc hội thảo bàn bạc về cách giám sát công nghệ xe tự lái. Bộ An ninh Nội địa Hoa Kỳ (The Department of Homeland Security) đã trình lên báo cáo liên quan đến các hiểm họa AI tiềm tàng đối với các cơ sở hạ tầng quan trọng.

Những bước tiến chắp vá này vẫn chưa thật sự hoàn hảo nhưng mang đến một lợi thế lớn đó là nó kiềm hãm những cám dỗ để có thể dễ dàng điều chỉnh. Do vậy mà nhà cầm quyền chỉ có thể áp đặt những chính sách phù hợp liên quan đến trình độ chuyên môn của họ.

Tuy nhiên, nhiều viện nghiên cứu và nhà phê bình đang nổi hiện nay lại muốn dập tắt bước tiến này. Họ kêu gọi thành lập một cơ quan cầm quyền khác nghiêm túc quản lý chặt chẽ công nghệ AI. Giáo sư Luật Frank Pasquale tại trường Đại học Maryland đề xuất thành lập một Ủy ban Tìm kiếm Liên bang (Federal Search Commission) có chức năng tương tự như Ủy ban Truyền thông Liên bang (FCC) nhằm kiểm soát việc truy vấn Internet. Chuyên gia Attorney Matthew Scherer tán thành việc thành lập một acency liên bang chuyên về AI trong khi giáo sư Ryan Calo tại trường Đại học Washington lại tính đến việc xây dựng một Ủy ban Khoa học Robot Liên bang (Federal Robotics Commission).

Những ý tưởng nêu trên đều dựa vào các “nguyên tắc phòng chống” khi trường hợp xấu xảy ra. Trong đó, những cải tiến trong các lĩnh vực khoa học kỹ thuật bị ép buộc phải dừng lại nếu nhà chức trách nhìn ra được những mối nguy hiểm tiềm tàng đến đời sống xã hội.

Tuy nhiên như các nhà nghiên cứu về luật pháp đã chỉ ra từ lâu, thì những phân tích rủi ro mà các cơ quan quản lý đang áp dụng có thể chưa đầy đủ. Những nguy cơ giả định, không xác đáng đang được phóng đại lên quá mức thay vì những lợi ích thực sự và xã hội lại mất dần các cơ hội cải thiện đời sống. Các nhà chức trách thường không để chịu nổi sức ép thôi thúc mở rộng quyền hạn hay kinh phí bất kể đó là những lợi ích hay chi phí xã hội. Nếu người dân cho họ cơ hội sửa đổi thì họ sẽ sửa đổi. Một khi thành lập một agency liên bang rồi thì khó khăn sẽ ngày càng chồng chất.

Khi AI phát triển chạm đến các lĩnh vực đang tồn tại, một agency AI liên bang mới sẽ đưa ra các điều lệnh lớn gây sức ép đến cuộc sống người dân. Các nhà soạn thảo chính sách sẽ cần phải kiên nhẫn và từ tốn phân biệt các ứng dụng AI. Ví dụ, những rủi ro xã hội liên quan đến trợ lý AI ảo sẽ khác biệt so với những thứ được đặt ra bởi phần mềm cảnh báo tiên đoán hay “vũ khí thông minh”. Nhưng một chế độ kiểm soát quá khích sẽ làm cản trở sự phát triển của các ứng dụng AI và bóp chết các công nghệ có lợi trong khi không mang lại hướng giải quyết thỏa đáng cho những vấn đề thực sự cần thiết.

Trong khi đó, những mối nguy đe dọa đến tương lai và hạnh phúc trong nguyên tắc phòng chống đặt ra rất đáng để nhắc đến. Công nghệ AI được cân bằng nhằm mang đến những bước tiến cải thiện về mặt sức khỏe và vận chuyển trong khi vẫn hiện đại hóa sản xuất và giao thương. Những lợi ích kinh tế đạt đến ngưỡng tỷ đô và nếu xét ở mức độ cá nhân, công nghệ AI hứa hẹn đem đến một cuộc sống sung túc và thoải mái hơn.

Các nhà viết chính sách đang đấu tranh cho sự phát triển của AI nên theo đuổi quan điểm “đổi mới bất chấp nguyên tắc”. Sự từ tốn, hợp tác hay các giải pháp tình nguyện phải tránh xa các mô hình điều lệnh và kiểm soát lỗi thời của thế kỷ trước. Thời đại của các thiết bị thông minh cần đi cùng với thời kỳ chính sách tân tiến mới.

Post Author: Tu Vo