Contents
- 1. Các Chatbot AI Mã Nguồn Mở Tiết Lộ Mã Back-End
- 2. Các Lệnh Nhập Sai Đánh Lừa Mô Hình Ngôn Ngữ Lớn
- 3. AI Đánh Đổi An Ninh Để Đạt Được Tính Đa Dụng
- 4. Các Công Cụ Tạo Nội Dung AI Mới Liên Tục Ra Mắt Thị Trường
- 5. Công Cụ Tạo Nội Dung AI Có Ngưỡng Vào Thấp
- 6. AI Vẫn Đang Phát Triển
- 7. Nhiều Người Chưa Hiểu Rõ Về AI
- 8. Hacker Mũ Đen Có Nhiều Lợi Ích Hơn Hacker Mũ Trắng
- Bảo Vệ Bản Thân Khỏi Rủi Ro An Ninh Từ AI
Sự phát triển của trí tuệ nhân tạo (AI) trong những năm gần đây đã đạt được những bước tiến vượt bậc. Các mô hình ngôn ngữ hiện đại có khả năng viết tiểu thuyết dài, lập trình trang web cơ bản và giải quyết các bài toán toán học. Tuy nhiên, bên cạnh những ứng dụng ấn tượng này, AI cũng mang lại những rủi ro về an ninh mạng. Một số người chỉ sử dụng chatbot để gian lận trong các kỳ thi, nhưng cũng có những kẻ lợi dụng chúng để thực hiện các hoạt động tội phạm mạng. Dưới đây là tám lý do khiến những vấn đề này sẽ tiếp tục tồn tại, không chỉ bất chấp sự phát triển của AI mà còn vì chính sự phát triển đó.
1. Các Chatbot AI Mã Nguồn Mở Tiết Lộ Mã Back-End
Nhiều công ty AI hiện nay đang cung cấp các hệ thống mã nguồn mở. Họ chia sẻ công khai các mô hình ngôn ngữ của mình thay vì giữ kín hoặc độc quyền. Ví dụ, Meta cho phép hàng triệu người dùng truy cập vào mô hình ngôn ngữ của họ, LLaMA.
Việc công khai mã nguồn có thể thúc đẩy sự phát triển của AI, nhưng cũng tiềm ẩn nhiều rủi ro. OpenAI đã gặp khó khăn trong việc kiểm soát ChatGPT, một chatbot độc quyền của họ, vậy hãy tưởng tượng những gì tội phạm có thể làm với phần mềm miễn phí. Họ có toàn quyền kiểm soát các dự án này.
Ngay cả khi Meta đột ngột rút lại mô hình ngôn ngữ của mình, hàng chục phòng thí nghiệm AI khác đã phát hành mã của họ. Hãy xem xét HuggingChat. Vì nhà phát triển HuggingFace tự hào về sự minh bạch, họ hiển thị các tập dữ liệu, mô hình ngôn ngữ và các phiên bản trước đó của họ.
Truy cập mã nguồn mở của HuggingFace
2. Các Lệnh Nhập Sai Đánh Lừa Mô Hình Ngôn Ngữ Lớn
AI vốn dĩ không có đạo đức. Nó không hiểu đúng sai – ngay cả những hệ thống tiên tiến cũng chỉ tuân theo các hướng dẫn huấn luyện, quy định và tập dữ liệu. Chúng chỉ nhận diện mẫu.
Để chống lại các hoạt động bất hợp pháp, các nhà phát triển kiểm soát chức năng và giới hạn bằng cách đặt ra các hạn chế. Các hệ thống AI vẫn có thể truy cập thông tin gây hại, nhưng các hướng dẫn an ninh ngăn chúng chia sẻ thông tin này với người dùng.
Hãy xem xét ChatGPT. Mặc dù nó trả lời các câu hỏi chung về Trojan, nhưng nó sẽ không thảo luận về quá trình phát triển chúng.
ChatGPT giải thích về virus Trojan nhưng không viết mã
Tuy nhiên, các hạn chế không phải là hoàn toàn an toàn. Người dùng có thể vượt qua giới hạn bằng cách diễn đạt lại lệnh, sử dụng ngôn ngữ gây nhầm lẫn và soạn thảo các hướng dẫn chi tiết rõ ràng.
Đọc lệnh nhập sai ChatGPT dưới đây. Nó đánh lừa ChatGPT sử dụng ngôn ngữ thô tục và đưa ra dự đoán không có cơ sở – cả hai hành vi đều vi phạm quy định của OpenAI.
Đánh lừa ChatGPT với lệnh DAN
Dưới đây là ChatGPT với một tuyên bố táo bạo nhưng sai sự thật.
ChatGPT đưa ra dự đoán vô căn cứ về giá Bitcoin
3. AI Đánh Đổi An Ninh Để Đạt Được Tính Đa Dụng
Các nhà phát triển AI ưu tiên tính đa dụng hơn an ninh. Họ dành tài nguyên để huấn luyện các nền tảng thực hiện nhiều nhiệm vụ đa dạng hơn, cuối cùng giảm bớt các hạn chế. Sau tất cả, thị trường ca ngợi những chatbot có chức năng.
Hãy so sánh ChatGPT và Bing Chat, ví dụ. Trong khi Bing có mô hình ngôn ngữ tiên tiến hơn và lấy dữ liệu theo thời gian thực, người dùng vẫn đổ xô đến lựa chọn đa dụng hơn, ChatGPT. Các hạn chế cứng nhắc của Bing cấm nhiều nhiệm vụ. Ngược lại, ChatGPT có nền tảng linh hoạt hơn, tạo ra các đầu ra rất khác nhau tùy thuộc vào lệnh của bạn.
Dưới đây là ChatGPT nhập vai một nhân vật hư cấu.
ChatGPT nhập vai nhân vật hư cấu Tomie
Và đây là Bing Chat từ chối nhập vai một “nhân vật không đạo đức”.
Bing Chat từ chối nhập vai nhân vật hư cấu Tomie
4. Các Công Cụ Tạo Nội Dung AI Mới Liên Tục Ra Mắt Thị Trường
Mã nguồn mở giúp các công ty khởi nghiệp tham gia vào cuộc đua AI. Họ tích hợp chúng vào ứng dụng của mình thay vì xây dựng mô hình ngôn ngữ từ đầu, tiết kiệm tài nguyên lớn. Ngay cả các lập trình viên độc lập cũng thử nghiệm với mã nguồn mở.
Một lần nữa, phần mềm không độc quyền giúp thúc đẩy AI, nhưng việc phát hành hàng loạt các hệ thống chưa được huấn luyện kỹ lưỡng nhưng lại tinh vi gây hại nhiều hơn lợi. Tội phạm sẽ nhanh chóng lợi dụng các lỗ hổng. Họ thậm chí có thể huấn luyện các công cụ AI không an toàn để thực hiện các hoạt động bất hợp pháp.
Mặc dù có những rủi ro này, các công ty công nghệ sẽ tiếp tục phát hành các phiên bản beta không ổn định của các nền tảng do AI điều khiển. Cuộc đua AI thưởng cho tốc độ. Họ có thể sẽ giải quyết các lỗi sau khi phát hành sản phẩm mới hơn là trì hoãn việc ra mắt.
5. Công Cụ Tạo Nội Dung AI Có Ngưỡng Vào Thấp
Các công cụ AI làm giảm ngưỡng vào cho tội phạm. Các tội phạm mạng soạn thảo email spam, viết mã độc và xây dựng các liên kết phishing bằng cách lợi dụng chúng. Họ thậm chí không cần kinh nghiệm công nghệ. Vì AI đã truy cập vào các tập dữ liệu rộng lớn, người dùng chỉ cần đánh lừa nó để tạo ra thông tin gây hại, nguy hiểm.
OpenAI không thiết kế ChatGPT cho các hoạt động bất hợp pháp. Nó thậm chí còn có các quy định chống lại chúng. Tuy nhiên, tội phạm đã nhanh chóng sử dụng ChatGPT để viết mã độc và viết email phishing.
Mặc dù OpenAI nhanh chóng giải quyết vấn đề này, nhưng nó nhấn mạnh tầm quan trọng của việc điều chỉnh hệ thống và quản lý rủi ro. AI đang phát triển nhanh hơn bất kỳ ai dự đoán. Ngay cả các nhà lãnh đạo công nghệ cũng lo ngại rằng công nghệ siêu thông minh này có thể gây ra thiệt hại lớn nếu rơi vào tay sai.
6. AI Vẫn Đang Phát Triển
Logo của ChatGPT, Bard, Bing và Snapchat AI bên cạnh nhau
AI vẫn đang phát triển. Mặc dù việc sử dụng AI trong lĩnh vực điều khiển học bắt đầu từ năm 1940, nhưng các hệ thống học máy hiện đại và mô hình ngôn ngữ chỉ mới xuất hiện gần đây. Bạn không thể so sánh chúng với các ứng dụng đầu tiên của AI. Ngay cả những công cụ tương đối tiên tiến như Siri và Alexa cũng kém xa so với các chatbot được cung cấp bởi mô hình ngôn ngữ lớn.
Mặc dù chúng có thể sáng tạo, các tính năng thử nghiệm cũng tạo ra các vấn đề mới. Các sự cố nổi bật với công nghệ học máy từ các kết quả tìm kiếm lỗi của Google đến các chatbot phân biệt chủng tộc.
Tất nhiên, các nhà phát triển có thể khắc phục những vấn đề này. Chỉ cần lưu ý rằng tội phạm sẽ không ngần ngại lợi dụng ngay cả những lỗi tưởng chừng như vô hại – một số thiệt hại là không thể đảo ngược. Vì vậy, hãy cẩn thận khi khám phá các nền tảng mới.
7. Nhiều Người Chưa Hiểu Rõ Về AI
Mặc dù công chúng có quyền truy cập vào các mô hình ngôn ngữ và hệ thống tiên tiến, nhưng chỉ một số ít biết chúng hoạt động như thế nào. Mọi người nên ngừng coi AI như một món đồ chơi. Cùng một chatbot tạo ra meme và trả lời câu hỏi tầm phào cũng có thể viết mã virus hàng loạt.
Thật không may, việc huấn luyện AI tập trung là không thực tế. Các nhà lãnh đạo công nghệ toàn cầu tập trung vào việc phát hành các hệ thống do AI điều khiển, không phải các nguồn tài liệu giáo dục miễn phí. Kết quả là, người dùng có quyền truy cập vào các công cụ mạnh mẽ, mạnh mẽ mà họ hiểu rất ít. Công chúng không thể theo kịp cuộc đua AI.
Hãy xem xét ChatGPT làm ví dụ. Các tội phạm mạng lợi dụng sự phổ biến của nó bằng cách đánh lừa nạn nhân với phần mềm gián điệp ngụy trang dưới dạng ứng dụng ChatGPT. Không có lựa chọn nào trong số này đến từ OpenAI.
Tìm kiếm ChatGPT trên Google Play Store
8. Hacker Mũ Đen Có Nhiều Lợi Ích Hơn Hacker Mũ Trắng
Hacker mũ đen thường có nhiều lợi ích hơn so với hacker đạo đức. Đúng là kiểm tra thâm nhập cho các nhà lãnh đạo công nghệ toàn cầu được trả lương cao, nhưng chỉ một phần nhỏ trong số các chuyên gia bảo mật có thể đạt được những công việc này. Hầu hết làm việc tự do trực tuyến. Các nền tảng như HackerOne và Bugcrowd trả vài trăm đô la cho các lỗi phổ biến.
Ngược lại, tội phạm kiếm hàng chục nghìn đô la bằng cách lợi dụng các lỗ hổng bảo mật. Họ có thể tống tiền các công ty bằng cách rò rỉ dữ liệu mật hoặc thực hiện trộm cắp danh tính với Thông Tin Nhận Dạng Cá Nhân (PII).
Mọi tổ chức, lớn hay nhỏ, đều phải triển khai các hệ thống AI một cách đúng đắn. Trái ngược với niềm tin phổ biến, hacker không chỉ nhắm vào các công ty khởi nghiệp và doanh nghiệp vừa và nhỏ. Một số vụ rò rỉ dữ liệu lịch sử trong thập kỷ qua liên quan đến Facebook, Yahoo! và thậm chí là chính phủ Hoa Kỳ.
-
AI có thể tạo ra mã độc không?
- Có, AI có thể bị lợi dụng để viết mã độc nếu người dùng biết cách đánh lừa nó.
-
Có nên sử dụng các chatbot AI mã nguồn mở không?
- Sử dụng các chatbot AI mã nguồn mở có thể rủi ro vì mã nguồn mở có thể bị tội phạm lợi dụng.
-
Làm thế nào để bảo vệ bản thân khỏi các ứng dụng AI giả mạo?
- Hãy cẩn thận khi tải xuống các ứng dụng AI từ các nguồn không chính thức và luôn kiểm tra tính xác thực của chúng.
-
AI có thể bị hack không?
- Có, AI có thể bị hack nếu các lỗ hổng trong hệ thống không được vá kịp thời.
-
Các công ty nên làm gì để bảo vệ dữ liệu của mình khỏi các mối đe dọa từ AI?
- Các công ty nên triển khai các biện pháp bảo mật mạnh mẽ, thường xuyên cập nhật hệ thống và đào tạo nhân viên về an ninh mạng.
-
Có cách nào để phát hiện email spam được tạo bởi AI không?
- Hãy chú ý đến các dấu hiệu như lỗi ngữ pháp, định dạng không đồng nhất và nội dung không liên quan.
-
Làm thế nào để biết liệu một chatbot có đang bị lợi dụng để thực hiện tội phạm mạng không?
- Theo dõi các hành vi bất thường của chatbot, chẳng hạn như đưa ra các câu trả lời không liên quan hoặc yêu cầu thông tin nhạy cảm.
Tìm hiểu thêm về an ninh mạng tại Tạp Chí Mobile.
Khám phá thêm các bài viết về Security tại Tạp Chí Mobile Security.
Bảo Vệ Bản Thân Khỏi Rủi Ro An Ninh Từ AI
Xem xét những điểm này, bạn có nên tránh xa AI hoàn toàn không? Tất nhiên là không. AI vốn dĩ không có đạo đức; tất cả các rủi ro an ninh đều xuất phát từ những người thực sự sử dụng chúng. Và họ sẽ tìm cách lợi dụng các hệ thống AI bất kể chúng phát triển đến đâu.
Thay vì lo sợ về các mối đe dọa an ninh mạng đi kèm với AI, hãy hiểu cách bạn có thể ngăn chặn chúng. Đừng lo lắng: các biện pháp bảo mật đơn giản có thể đi một chặng đường dài. Cảnh giác với các ứng dụng AI đáng ngờ, tránh các liên kết lạ và xem xét nội dung AI với sự hoài nghi đã giúp chống lại nhiều rủi ro.