Trí tuệ nhân tạo phải được theo dõi chặt chẽ: Brad Smith của Microsoft
Mục lục:
Nghe có vẻ như một trò đùa với nhiều người, nhưng cách đây không lâu, nỗi sợ hãi về Trí tuệ nhân tạo coi nó là mối đe dọa đối với loài người là một nỗi ám ảnh khá phổ biến. Trên thực tế, chúng ta đã thấy điều đó trong cuộc nói chuyện này trong tập một của Captcha mùa thứ hai, trong đó chúng ta đã thấy nỗi sợ hãi vô căn cứ như thế nào.
Tuy nhiên, có vẻ như không phải ai cũng nhìn nhận như vậy và nhiều người nghĩ rằng Skynet hay Ma trận và cuộc cách mạng máy móc sắp đến gần. Trí tuệ nhân tạo có thể là một mối đe dọa và vì vậy tại Hội nghị thượng đỉnh GeekWire 2019, Chủ tịch Microsoft, Brad Smith, đã đưa ra tầm nhìn của mình, hơi bi quan về nó
Trí tuệ nhân tạo có phải là mối đe dọa không?
Smith đã đưa ra lý do cho quan điểm có phần tiêu cực này, đó là vụ tai nạn máy bay xảy ra ở khu vực eo biển Puget, trong đó một chiếc máy bay cùng hành khách và phi hành đoàn đã gặp tai nạn do một hệ thống tự động mà họ không thể tắt khỏi cabin khi đến lúc.
Phần mềm và tiền đề của nó thật tuyệt vời, vì nó chịu trách nhiệm phát hiện độ nghiêng vượt quá của máy bay nếu nó quá cao, hạ thấp mũi và giảm độ cao cho phù hợp. Vấn đề là trong trường hợp này, các phép đo không thành công và phi hành đoàn không thể hủy kích hoạt hệ thống dẫn đến kết cục bi thảm.
Tình huống này là cái cớ cho Brad Smith, người biện minh rằng sự phát triển công nghệ là đáng khen ngợi, nhưng phải luôn được kiểm soátVà trong trường hợp Trí tuệ nhân tạo và các hệ thống tích hợp nó, chúng phải có một loại nút hoảng loạn hoặc nút khẩn cấp cho phép chúng bị vô hiệu hóa."
Và đối với hồ sơ, đây không phải là trường hợp duy nhất. Ở cấp độ thực tế hơn và gần gũi hơn với đại đa số người dùng, chúng tôi có trường hợp người bị xe tự hành chạy qua.
Đó là về việc đảm bảo tính ưu việt của các quyết định của con người tại những thời điểm nhất định và trong một số trường hợp mà việc ra quyết định của một hệ thống dựa trên về trí tuệ nhân tạo không đầy đủ như lẽ ra phải có.
Brad Smith đã không ngừng chỉ trích việc sử dụng Trí tuệ nhân tạo như chúng ta biết ngày nay. Toàn xã hội và toàn ngành phải nhận thức được con đường mà họ đang đi:
Chúng ta đã thấy có máy bay không người lái và cỗ máy chiến tranh>Đó chỉ là một phần của vấn đề khiến Smith khẳng định rằng nên nghiên cứu và kiểm soát nguy cơ có thể xảy ra đối với sự phát triển không kiểm soát của AI học tự động (học máy). Trên thực tế, chúng tôi đã thấy ý kiến tương tự từ một kỹ sư của Google."
Đó là một vấn đề phức tạp. Sự phát triển của một AI mà tại một thời điểm nhất định thậm chí không thể tự quản lý các hệ thống kiểm soát do con người áp đặt. Sự giao thoa giữa các ý tưởng và lý thuyết đang được thảo luận và sẽ có nhiều điều để nói.
Source | GeekWire