Các thuật toán AI mới có thể phát hiện ra các trò troll trực tuyến: Nghiên cứu – Tin tức mới nhất



Mới trí tuệ nhân tạo (AI) thuật toán có thể theo dõi các cuộc trò chuyện trên phương tiện truyền thông xã hội trực tuyến khi chúng phát triển, điều này có thể dẫn đến một cách hiệu quả và tự động để phát hiện ra trò troll trực tuyến trong tương lai, theo các nhà nghiên cứu, bao gồm cả những người gốc Ấn Độ. Ngăn chặn quấy rối trực tuyến đòi hỏi phải phát hiện nhanh các bài đăng xúc phạm, quấy rối và tiêu cực trên mạng xã hội, do đó cần phải theo dõi các tương tác trực tuyến.

Các phương pháp hiện tại để có được dữ liệu truyền thông xã hội như vậy hoàn toàn tự động và không thể hiểu được hoặc dựa vào một bộ từ khóa tĩnh, có thể nhanh chóng trở nên lỗi thời.

Cả hai phương pháp đều không hiệu quả, theo Maya Srikanth, từ Viện Công nghệ California (Caltech) ở Mỹ.

“Không thể mở rộng để con người cố gắng thực hiện công việc này bằng tay và những người đó có khả năng thiên vị”, Srikanth nói.

“Mặt khác, việc tìm kiếm từ khóa bị ảnh hưởng bởi tốc độ phát triển của các cuộc hội thoại trực tuyến. Các thuật ngữ mới mọc lên và các thuật ngữ cũ thay đổi ý nghĩa, do đó, một từ khóa được sử dụng một cách chân thành một ngày nào đó có thể có ý nghĩa mỉa mai”, cô nói.

Nhóm, bao gồm Anima Anandkumar từ Caltech, đã sử dụng mô hình GloVe (Global vectơ cho từ đại diện) sử dụng thuật toán học máy để khám phá các từ khóa mới và có liên quan.

Học máy là một ứng dụng của AI cung cấp cho các hệ thống khả năng tự động học hỏi và cải thiện từ kinh nghiệm mà không cần lập trình rõ ràng.

GloVe là một mô hình nhúng từ, có nghĩa là nó đại diện cho các từ trong một không gian vectơ, trong đó “khoảng cách” giữa hai từ là thước đo cho sự tương đồng về ngôn ngữ hoặc ngữ nghĩa của chúng.

Bắt đầu với một từ khóa, mô hình này có thể được sử dụng để tìm các từ khóa khác có liên quan chặt chẽ với từ đó để tiết lộ các cụm từ có liên quan thực sự được sử dụng.

Ví dụ: tìm kiếm Twitter để sử dụng “MeToo” trong các cuộc hội thoại mang lại các cụm hashtag liên quan như “SupportSurvivors”, “ImWithHer” và “NotSilent”.

Cách tiếp cận này cung cấp cho các nhà nghiên cứu một bộ từ khóa năng động và không ngừng phát triển để tìm kiếm.

Tuy nhiên, không đủ để biết liệu một cuộc trò chuyện nhất định có liên quan đến chủ đề quan tâm hay không; Các vấn đề bối cảnh, các nhà nghiên cứu cho biết.

Do đó, GloVe cho thấy mức độ mà các từ khóa nhất định có liên quan, cung cấp đầu vào về cách chúng đang được sử dụng.

Ví dụ: trong một trực tuyến Reddit diễn đàn dành riêng cho misogyny, từ “nữ” đã được sử dụng kết hợp chặt chẽ với các từ “tình dục”, “tiêu cực” và “giao hợp”.

Trong các bài đăng trên Twitter về phong trào #MeToo, từ “nữ” có nhiều khả năng được liên kết với các thuật ngữ “công ty”, “mong muốn” và “nạn nhân”.

 Các nhà nghiên cứu cho biết dự án này là một bằng chứng về một ngày nhằm cung cấp cho các nền tảng truyền thông xã hội một công cụ mạnh mẽ hơn để phát hiện sự quấy rối trực tuyến, các nhà nghiên cứu cho biết.

 “Lĩnh vực nghiên cứu AI đang trở nên toàn diện hơn, nhưng luôn có những người chống lại sự thay đổi”, ông Anandkumar nói.

 “Hy vọng rằng, các công cụ chúng tôi đang phát triển hiện nay sẽ giúp chống lại tất cả các loại quấy rối trong tương lai,” cô nói.

Nghiên cứu được trình bày vào ngày 14 tháng 12 năm ngoái tại hội thảo AI vì xã hội tốt tại Hội nghị về Hệ thống xử lý thông tin thần kinh ở Vancouver, Canada.

.



Nguồn GadgetsNow

Chúng tôi rất vui khi biết đánh giá của bạn

Leave a reply

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.

Gia Tot
Logo
Enable registration in settings - general