Contents
- 1. Chatbot AI Mã Nguồn Mở Tiết Lộ Mã Phía Sau
- 2. Các Lệnh Gây Mất Kiểm Soát Đánh Lừa Mô Hình Ngôn Ngữ Lớn
- 3. AI Đánh Đổi An Ninh Để Đạt Được Tính Linh Hoạt
- 4. Các Công Cụ AI Tạo Sinh Mới Ra Mắt Thường Xuyên
- 5. AI Tạo Sinh Có Ngưỡng Tham Gia Thấp
- 6. AI Vẫn Đang Phát Triển
- 7. Nhiều Người Chưa Hiểu Rõ Về AI
- 8. Hacker Mũ Đen Có Nhiều Lợi Ích Hơn Hacker Mũ Trắng
- 1. AI có thể bị lợi dụng để thực hiện tội phạm mạng như thế nào?
- 2. Tại sao mã nguồn mở lại gây ra rủi ro an ninh cho AI?
- 3. Làm thế nào để bảo vệ bản thân khỏi các rủi ro an ninh từ AI?
- 4. Tại sao các nhà phát triển AI ưu tiên tính linh hoạt hơn an ninh?
- 5. AI có thể gây ra thiệt hại lớn nếu rơi vào tay sai như thế nào?
- 6. Tại sao việc hiểu rõ về AI lại quan trọng?
- 7. Các công ty công nghệ có thể làm gì để giảm thiểu rủi ro an ninh từ AI?
- Bảo Vệ Bản Thân Khỏi Rủi Ro An Ninh Từ AI
Trí tuệ nhân tạo (AI) đã có những bước tiến đáng kể trong những năm gần đây. Các mô hình ngôn ngữ phức tạp có thể viết tiểu thuyết dài, lập trình trang web cơ bản và giải quyết các bài toán toán học. Mặc dù ấn tượng, AI tạo sinh cũng mang lại những rủi ro về an ninh. Một số người chỉ sử dụng chatbot để gian lận trong các kỳ thi, nhưng những người khác lợi dụng chúng để thực hiện các hành vi tội phạm mạng. Dưới đây là tám lý do khiến những vấn đề này sẽ tiếp tục tồn tại, không chỉ bất chấp sự phát triển của AI mà còn vì sự phát triển đó.
1. Chatbot AI Mã Nguồn Mở Tiết Lộ Mã Phía Sau
Ngày càng nhiều công ty AI cung cấp các hệ thống mã nguồn mở. Họ công khai chia sẻ các mô hình ngôn ngữ của mình thay vì giữ chúng kín hoặc sở hữu độc quyền. Lấy ví dụ về Meta. Không giống như Google, Microsoft và OpenAI, công ty này cho phép hàng triệu người dùng truy cập vào mô hình ngôn ngữ của mình, LLaMA.
Việc công khai mã nguồn có thể thúc đẩy sự phát triển của AI, nhưng cũng đi kèm với rủi ro. OpenAI đã gặp khó khăn trong việc kiểm soát ChatGPT, chatbot độc quyền của mình, vậy hãy tưởng tượng những kẻ xấu có thể làm gì với phần mềm miễn phí. Họ có toàn quyền kiểm soát những dự án này.
Ngay cả khi Meta đột ngột rút mô hình ngôn ngữ của mình, hàng chục phòng thí nghiệm AI khác đã phát hành mã của họ. Hãy xem xét HuggingChat. Vì nhà phát triển HuggingFace tự hào về sự minh bạch, nên họ công khai các tập dữ liệu, mô hình ngôn ngữ và các phiên bản trước đó của mình.
Truy cập mã nguồn mở của HuggingFace
2. Các Lệnh Gây Mất Kiểm Soát Đánh Lừa Mô Hình Ngôn Ngữ Lớn
AI vốn dĩ không có đạo đức. Nó không hiểu đúng sai—ngay cả các hệ thống tiên tiến cũng chỉ tuân theo các hướng dẫn huấn luyện, quy định và tập dữ liệu. Chúng chỉ nhận diện các mẫu.
Để chống lại các hoạt động bất hợp pháp, các nhà phát triển kiểm soát chức năng và giới hạn bằng cách đặt ra các hạn chế. Các hệ thống AI vẫn có thể truy cập thông tin gây hại. Nhưng các hướng dẫn an ninh ngăn chặn chúng chia sẻ những thông tin này với người dùng.
Hãy xem xét ChatGPT. Mặc dù nó có thể trả lời các câu hỏi chung về Trojan, nhưng nó sẽ không thảo luận về quá trình phát triển chúng.
ChatGPT giải thích về Trojan nhưng không mã hóa chúng
Tuy nhiên, các hạn chế không hoàn toàn chắc chắn. Người dùng có thể vượt qua giới hạn bằng cách diễn đạt lại lệnh, sử dụng ngôn ngữ gây nhầm lẫn và soạn thảo các hướng dẫn chi tiết rõ ràng.
Đọc lệnh jailbreak ChatGPT dưới đây. Nó đánh lừa ChatGPT sử dụng ngôn ngữ thô tục và đưa ra dự đoán vô căn cứ—cả hai hành vi đều vi phạm quy định của OpenAI.
Jailbreaking ChatGPT với lệnh DAN
Dưới đây là ChatGPT với một tuyên bố táo bạo nhưng sai sự thật.
ChatGPT đưa ra dự đoán vô căn cứ về giá Bitcoin
3. AI Đánh Đổi An Ninh Để Đạt Được Tính Linh Hoạt
Các nhà phát triển AI ưu tiên tính linh hoạt hơn an ninh. Họ dành tài nguyên để huấn luyện các nền tảng thực hiện nhiều nhiệm vụ đa dạng hơn, cuối cùng giảm bớt các hạn chế. Sau tất cả, thị trường hoan nghênh các chatbot hoạt động tốt.
Hãy so sánh ChatGPT và Bing Chat, ví dụ. Trong khi Bing có mô hình ngôn ngữ phức tạp hơn và truy cập dữ liệu theo thời gian thực, người dùng vẫn đổ xô đến lựa chọn linh hoạt hơn, ChatGPT. Các hạn chế cứng nhắc của Bing cấm nhiều nhiệm vụ. Ngược lại, ChatGPT có nền tảng linh hoạt tạo ra các kết quả rất khác nhau tùy thuộc vào lệnh của bạn.
Dưới đây là ChatGPT đóng vai một nhân vật hư cấu.
ChatGPT đóng vai nhân vật hư cấu Tomie
Và đây là Bing Chat từ chối đóng vai một “nhân vật phi đạo đức”.
Bing Chat từ chối đóng vai nhân vật hư cấu Tomie
4. Các Công Cụ AI Tạo Sinh Mới Ra Mắt Thường Xuyên
Mã nguồn mở cho phép các công ty khởi nghiệp tham gia vào cuộc đua AI. Họ tích hợp chúng vào ứng dụng của mình thay vì xây dựng mô hình ngôn ngữ từ đầu, tiết kiệm tài nguyên khổng lồ. Thậm chí các lập trình viên độc lập cũng thử nghiệm với mã nguồn mở.
Lần nữa, phần mềm không độc quyền giúp thúc đẩy AI, nhưng việc phát hành hàng loạt các hệ thống chưa được huấn luyện kỹ nhưng phức tạp gây hại nhiều hơn là lợi. Các kẻ xấu sẽ nhanh chóng lợi dụng các lỗ hổng. Họ thậm chí có thể huấn luyện các công cụ AI không an toàn để thực hiện các hoạt động bất hợp pháp.
Mặc dù có những rủi ro này, các công ty công nghệ vẫn sẽ tiếp tục phát hành các phiên bản beta không ổn định của các nền tảng điều khiển bằng AI. Cuộc đua AI thưởng cho tốc độ. Họ có thể sẽ giải quyết các lỗi sau này thay vì trì hoãn việc ra mắt sản phẩm mới.
5. AI Tạo Sinh Có Ngưỡng Tham Gia Thấp
Các công cụ AI giảm ngưỡng tham gia vào tội phạm. Các tội phạm mạng soạn thảo email spam, viết mã độc và xây dựng các liên kết lừa đảo bằng cách lợi dụng chúng. Họ thậm chí không cần kinh nghiệm công nghệ. Vì AI đã truy cập vào các tập dữ liệu rộng lớn, người dùng chỉ cần đánh lừa nó để tạo ra thông tin gây hại, nguy hiểm.
OpenAI không bao giờ thiết kế ChatGPT cho các hoạt động bất hợp pháp. Nó thậm chí còn có các quy định chống lại chúng. Tuy nhiên, các kẻ xấu gần như ngay lập tức đã khiến ChatGPT viết mã độc và viết email lừa đảo.
Mặc dù OpenAI nhanh chóng giải quyết vấn đề, nhưng điều này nhấn mạnh tầm quan trọng của việc điều chỉnh hệ thống và quản lý rủi ro. AI đang trưởng thành nhanh hơn bất kỳ ai dự đoán. Ngay cả các nhà lãnh đạo công nghệ cũng lo lắng rằng công nghệ siêu thông minh này có thể gây ra thiệt hại lớn nếu rơi vào tay sai.
6. AI Vẫn Đang Phát Triển
Logo của ChatGPT, Bard, Bing và Snapchat AI bên cạnh nhau
AI vẫn đang phát triển. Mặc dù việc sử dụng AI trong lĩnh vực điều khiển học bắt đầu từ năm 1940, nhưng các hệ thống học máy hiện đại và các mô hình ngôn ngữ chỉ mới xuất hiện gần đây. Bạn không thể so sánh chúng với các ứng dụng đầu tiên của AI. Ngay cả các công cụ tương đối tiên tiến như Siri và Alexa cũng kém xa so với các chatbot được cung cấp bởi LLM.
Mặc dù chúng có thể sáng tạo, các tính năng thử nghiệm cũng tạo ra các vấn đề mới. Các sự cố nổi bật với công nghệ học máy từ các kết quả tìm kiếm sai của Google đến các chatbot phân biệt chủng tộc.
Tất nhiên, các nhà phát triển có thể khắc phục những vấn đề này. Chỉ cần lưu ý rằng các kẻ xấu sẽ không ngần ngại lợi dụng ngay cả những lỗi tưởng chừng như vô hại—một số thiệt hại là không thể đảo ngược. Vì vậy, hãy cẩn thận khi khám phá các nền tảng mới.
7. Nhiều Người Chưa Hiểu Rõ Về AI
Mặc dù công chúng có quyền truy cập vào các mô hình ngôn ngữ và hệ thống phức tạp, chỉ có một số ít biết chúng hoạt động như thế nào. Mọi người nên ngừng đối xử với AI như một món đồ chơi. Cùng một chatbot tạo ra meme và trả lời câu hỏi trivia cũng có thể mã hóa virus hàng loạt.
Thật không may, việc huấn luyện AI tập trung là không thực tế. Các nhà lãnh đạo công nghệ toàn cầu tập trung vào việc phát hành các hệ thống điều khiển bằng AI, không phải các tài nguyên giáo dục miễn phí. Kết quả là, người dùng có quyền truy cập vào các công cụ mạnh mẽ, mạnh mẽ mà họ hiểu rất ít. Công chúng không thể theo kịp cuộc đua AI.
Lấy ví dụ về ChatGPT. Các tội phạm mạng lợi dụng sự phổ biến của nó bằng cách đánh lừa nạn nhân với phần mềm gián điệp ngụy trang dưới dạng ứng dụng ChatGPT. Không có lựa chọn nào trong số này đến từ OpenAI.
Tìm kiếm ChatGPT trên Google Play Store
8. Hacker Mũ Đen Có Nhiều Lợi Ích Hơn Hacker Mũ Trắng
Hacker mũ đen thường có nhiều lợi ích hơn so với hacker đạo đức. Đúng là kiểm tra thâm nhập cho các nhà lãnh đạo công nghệ toàn cầu được trả lương cao, nhưng chỉ một phần nhỏ các chuyên gia bảo mật có được những công việc này. Hầu hết làm việc tự do trực tuyến. Các nền tảng như HackerOne và Bugcrowd trả vài trăm đô la cho các lỗi phổ biến.
Ngược lại, các kẻ xấu kiếm hàng chục nghìn đô la bằng cách lợi dụng các lỗ hổng bảo mật. Họ có thể tống tiền các công ty bằng cách rò rỉ dữ liệu mật hoặc thực hiện trộm cắp danh tính với Thông Tin Cá Nhân (PII).
Mọi tổ chức, lớn hay nhỏ, đều phải triển khai các hệ thống AI một cách đúng đắn. Trái ngược với quan niệm phổ biến, hacker không chỉ nhắm vào các công ty khởi nghiệp công nghệ và doanh nghiệp vừa và nhỏ. Một số vụ rò rỉ dữ liệu lịch sử trong thập kỷ qua liên quan đến Facebook, Yahoo! và thậm chí là chính phủ Mỹ.
1. AI có thể bị lợi dụng để thực hiện tội phạm mạng như thế nào?
AI có thể bị lợi dụng để viết mã độc, tạo email spam, và xây dựng các liên kết lừa đảo. Các tội phạm mạng có thể sử dụng AI để tự động hóa các hoạt động này mà không cần nhiều kiến thức kỹ thuật.
2. Tại sao mã nguồn mở lại gây ra rủi ro an ninh cho AI?
Mã nguồn mở cho phép truy cập rộng rãi vào các mô hình ngôn ngữ, làm tăng nguy cơ bị lợi dụng bởi các kẻ xấu. Họ có thể sử dụng mã này để tạo ra các công cụ AI không an toàn và thực hiện các hoạt động bất hợp pháp.
3. Làm thế nào để bảo vệ bản thân khỏi các rủi ro an ninh từ AI?
Bạn có thể bảo vệ bản thân bằng cách cảnh giác với các ứng dụng AI đáng ngờ, tránh các liên kết lạ và xem xét nội dung AI với sự hoài nghi. Các biện pháp an ninh đơn giản như vậy có thể giúp giảm thiểu rủi ro.
4. Tại sao các nhà phát triển AI ưu tiên tính linh hoạt hơn an ninh?
Các nhà phát triển AI ưu tiên tính linh hoạt để đáp ứng nhu cầu thị trường về các chatbot có thể thực hiện nhiều nhiệm vụ đa dạng. Tuy nhiên, điều này có thể dẫn đến việc giảm bớt các hạn chế an ninh.
5. AI có thể gây ra thiệt hại lớn nếu rơi vào tay sai như thế nào?
AI có thể gây ra thiệt hại lớn nếu bị lợi dụng để tạo ra mã độc, thực hiện các cuộc tấn công mạng quy mô lớn, hoặc thậm chí là tống tiền các tổ chức bằng cách rò rỉ dữ liệu mật.
6. Tại sao việc hiểu rõ về AI lại quan trọng?
Hiểu rõ về AI giúp người dùng nhận biết và tránh các rủi ro an ninh tiềm ẩn. Nếu không hiểu rõ, người dùng có thể dễ dàng bị lợi dụng bởi các ứng dụng AI giả mạo hoặc các chiến dịch lừa đảo.
7. Các công ty công nghệ có thể làm gì để giảm thiểu rủi ro an ninh từ AI?
Các công ty công nghệ có thể tăng cường các biện pháp an ninh, cải thiện quy trình kiểm tra và giám sát, và cung cấp các tài nguyên giáo dục để nâng cao nhận thức về an ninh AI cho người dùng.
Bảo Vệ Bản Thân Khỏi Rủi Ro An Ninh Từ AI
Xem xét những điểm này, bạn có nên tránh xa AI hoàn toàn không? Tất nhiên là không. AI vốn dĩ không có đạo đức; tất cả các rủi ro an ninh đều xuất phát từ những người thực sự sử dụng chúng. Và họ sẽ tìm cách lợi dụng các hệ thống AI bất kể chúng phát triển đến đâu.
Thay vì lo sợ các mối đe dọa an ninh mạng đi kèm với AI, hãy hiểu cách bạn có thể ngăn chặn chúng. Đừng lo lắng: các biện pháp an ninh đơn giản có thể đi một chặng đường dài. Cảnh giác với các ứng dụng AI đáng ngờ, tránh các liên kết lạ và xem xét nội dung AI với sự hoài nghi đã chống lại nhiều rủi ro.