Саж. Nhưng khi các dòng mờ, những rủi ro tăng lên
Snapchat từ ‘rùng rợn AI BLUNDER nhắc nhở chúng ta rằng chatbots aren người dân. Nhưng khi các dòng mờ, những rủi ro tăng lên
Contents
- 1 Snapchat từ ‘rùng rợn AI BLUNDER nhắc nhở chúng ta rằng chatbots aren người dân. Nhưng khi các dòng mờ, những rủi ro tăng lên
- 1.1 Snapchat AI
- 1.2 Snapchat AI
- 1.3 Từ các quy tắc dựa trên các quy tắc đến chatbot thích ứng
- 1.4 Bạn bè hoặc kẻ thù – hoặc chỉ là một bot?
- 1.5 Một thung lũng kỳ lạ mới?
- 1.6 Giáo dục và minh bạch là chìa khóa
- 1.7 Bạn có sử dụng chatbot AI của Snapchat không? Đây là dữ liệu mà nó lấy từ bạn
- 1.8 Vị trí
- 1.9 Cuộc trò chuyện
Trong sự cố Snapchat gần đây, công ty đã đặt toàn bộ sự cố thời gian tạm thời của người Viking. Chúng ta có thể không bao giờ biết những gì thực sự đã xảy ra; Nó có thể là một ví dụ khác về AI Hallucinatng, hoặc kết quả của một cuộc tấn công mạng, hoặc thậm chí chỉ là một lỗi hoạt động.
Snapchat AI
Е ы ы ы н. AI của tôi của tôi.
Của tôi. ж. С е с и.
К и и с. О о! В р б ы. Tôi đã nói với tôi.
Х? р р р. Ч can. Ы.
Snapchat AI
Tác giả
- Phó Giám đốc Trung tâm phân tích dữ liệu và nhận thức của Trung tâm phân tích dữ liệu, Đại học La Trobe
Tuyên bố công khai
Daswin de Silva không làm việc, tham khảo ý kiến, sở hữu cổ phần hoặc nhận tài trợ từ bất kỳ công ty hoặc tổ chức nào sẽ được hưởng lợi từ bài viết này và đã tiết lộ không có liên kết nào ngoài cuộc hẹn học tập của họ.
Đối tác
Đại học La Trobe cung cấp tài trợ cho thành viên của cuộc trò chuyện AU.
Chatbots trí tuệ nhân tạo (AI) đang trở nên giống con người ngày càng giống với thiết kế, đến mức một số người trong chúng ta có thể đấu tranh để phân biệt giữa con người và máy móc.
Tuần này, Snapchat từ AI Chatbot của tôi đã bị trục trặc và đăng một câu chuyện về những gì trông giống như một bức tường và trần nhà, trước khi nó ngừng trả lời người dùng. Đương nhiên, internet bắt đầu đặt câu hỏi liệu chatbot do nhà thờ hỗ trợ.
Một khóa học về sự hiểu biết về AI có thể đã dập tắt sự nhầm lẫn này. Nhưng, ngoài ra, vụ việc nhắc nhở chúng ta rằng khi AI chatbot ngày càng gần giống với con người, việc quản lý sự hấp thu của họ sẽ chỉ gặp nhiều thách thức hơn – và quan trọng hơn.
Từ các quy tắc dựa trên các quy tắc đến chatbot thích ứng
Kể từ khi Chatgpt bùng nổ trên màn hình của chúng tôi vào cuối năm ngoái, nhiều nền tảng kỹ thuật số đã tích hợp AI vào dịch vụ của họ. Ngay cả khi tôi phác thảo bài viết này trên Microsoft Word, phần mềm có khả năng AI dự đoán.
Được biết đến như AI thế hệ, loại AI tương đối mới này được phân biệt với những người tiền nhiệm của nó bởi khả năng tạo ra nội dung mới chính xác, giống con người và có vẻ có ý nghĩa.
Các công cụ AI thế hệ, bao gồm các trình tạo hình ảnh AI và chatbot, được xây dựng trên các mô hình ngôn ngữ lớn (LLM). Các mô hình tính toán này phân tích mối liên hệ giữa hàng tỷ từ, câu và đoạn văn để dự đoán những gì nên đến tiếp theo trong một văn bản nhất định. Như người đồng sáng lập Openai, Ilya Sutskever đặt nó, một LLM là
[V]] Chỉ là một người dự đoán từ tiếp theo thực sự, thực sự tốt.
LLM nâng cao cũng được tinh chỉnh với phản hồi của con người. Việc đào tạo này, thường được thực hiện qua vô số giờ lao động giá rẻ, là lý do AI Chatbots giờ đây có thể có những cuộc trò chuyện giống như con người.
OpenaiTHER Chatgpt vẫn là mô hình AI phát triển hàng đầu. Bản phát hành của nó đã đánh dấu một bước nhảy vọt lớn từ các chatbot dựa trên quy tắc đơn giản hơn.
Chatbot giống con người nói chuyện ĐẾN một người dùng chứ không phải Tại chúng đã được liên kết với mức độ tham gia cao hơn. Một nghiên cứu cho thấy việc nhân cách hóa chatbots dẫn đến sự tham gia tăng lên, theo thời gian, có thể biến thành sự phụ thuộc tâm lý. Một nghiên cứu khác liên quan đến những người tham gia căng thẳng đã tìm thấy một chatbot giống con người có nhiều khả năng được coi là có thẩm quyền, và do đó có nhiều khả năng giúp giảm căng thẳng của người tham gia.
Những chatbot này cũng đã có hiệu quả trong việc hoàn thành các mục tiêu tổ chức trong các môi trường khác nhau, bao gồm bán lẻ, giáo dục, nơi làm việc và chăm sóc sức khỏe.
Google đang sử dụng AI tổng thể để xây dựng một huấn luyện viên cuộc sống cá nhân của người Viking, người được cho là sẽ giúp những người có nhiều nhiệm vụ cá nhân và chuyên nghiệp khác nhau, bao gồm cung cấp lời khuyên cuộc sống và trả lời các câu hỏi thân mật.
Điều này mặc dù các chuyên gia an toàn AI của Google, cảnh báo rằng người dùng có thể phát triển quá phụ thuộc vào AI và có thể trải nghiệm sức khỏe và sức khỏe giảm dần của người Hồi.
Bạn bè hoặc kẻ thù – hoặc chỉ là một bot?
Trong sự cố Snapchat gần đây, công ty đã đặt toàn bộ sự cố thời gian tạm thời của người Viking. Chúng ta có thể không bao giờ biết những gì thực sự đã xảy ra; Nó có thể là một ví dụ khác về AI Hallucinatng, hoặc kết quả của một cuộc tấn công mạng, hoặc thậm chí chỉ là một lỗi hoạt động.
Dù bằng cách nào, tốc độ mà một số người dùng cho rằng chatbot đã đạt được tình cảm cho thấy chúng ta đang thấy một sự nhân hóa chưa từng có của AI. Nó được kết hợp bởi sự thiếu minh bạch từ các nhà phát triển và sự thiếu hiểu biết cơ bản trong cộng đồng.
Chúng ta không nên đánh giá thấp cách các cá nhân có thể bị đánh lừa bởi tính xác thực rõ ràng của các chatbot giống con người.
Đầu năm nay, một người đàn ông Bỉ tự tử được quy cho những cuộc trò chuyện mà anh ấy đã có với một chatbot về sự không hành động của khí hậu và hành tinh tương lai. Trong một ví dụ khác, một chatbot tên Tessa đã bị phát hiện cung cấp lời khuyên có hại cho mọi người thông qua một đường dây trợ giúp rối loạn ăn uống.
Chatbots có thể đặc biệt có hại cho những người dễ bị tổn thương hơn trong chúng ta, và đặc biệt là với những người có điều kiện tâm lý.
Một thung lũng kỳ lạ mới?
Bạn có thể đã nghe nói về hiệu ứng của Thung lũng Uncanny. Nó đề cập đến cảm giác khó chịu mà bạn có được khi nhìn thấy một robot hình người hầu hết trông giống con người, nhưng những điểm không hoàn hảo của nó cho nó đi, và nó cuối cùng trở nên đáng sợ.
Có vẻ như một trải nghiệm tương tự đang xuất hiện trong các tương tác của chúng tôi với các chatbot giống con người. Một cú đánh nhẹ có thể nâng lông sau gáy.
Một giải pháp có thể là mất đi lợi thế của con người và trở lại với các chatbot đơn giản, khách quan và thực tế. Nhưng điều này sẽ đến với chi phí của sự tham gia và đổi mới.
Giáo dục và minh bạch là chìa khóa
Ngay cả các nhà phát triển của các chatbot AI tiên tiến cũng thường có thể giải thích cách họ làm việc. Tuy nhiên, theo một số cách (và theo như các thực thể thương mại có liên quan).
AI thế hệ đã chứng minh tính hữu dụng của nó trong các mặt hàng vé lớn như năng suất, chăm sóc sức khỏe, giáo dục và thậm chí là công bằng xã hội. Nó không có khả năng biến mất. Vì vậy, làm thế nào để chúng tôi làm cho nó hoạt động cho chúng tôi?
Kể từ năm 2018, đã có một sự thúc đẩy đáng kể cho các chính phủ và tổ chức để giải quyết các rủi ro của AI. Nhưng áp dụng các tiêu chuẩn và quy định có trách nhiệm cho một công nghệ mà người khác giống con người hơn bất kỳ người nào khác đi kèm với một loạt các thách thức.
Hiện tại, không có yêu cầu pháp lý nào đối với các doanh nghiệp Úc để tiết lộ việc sử dụng chatbots. Ở Mỹ, California đã giới thiệu một hóa đơn bot bot sẽ yêu cầu điều này, nhưng các chuyên gia pháp lý đã chọc vào nó – và dự luật vẫn chưa được thi hành tại thời điểm viết bài viết này.
Hơn nữa, Chatgpt và các chatbot tương tự được công khai như các bản xem trước nghiên cứu trên mạng. Điều này có nghĩa là họ thường đi kèm với nhiều tiết lộ về bản chất nguyên mẫu của họ và trách nhiệm cho việc sử dụng có trách nhiệm rơi vào người dùng.
Đạo luật Liên minh Châu Âu AI AI, Quy định toàn diện đầu tiên trên thế giới về AI, đã xác định quy định và giáo dục vừa phải là con đường phía trước – vì quy định dư thừa có thể đóng thế đổi mới. Tương tự như kiến thức kỹ thuật số, việc biết chữ AI nên được ủy quyền trong các trường học, trường đại học và tổ chức, và cũng nên được thực hiện miễn phí và có thể truy cập cho công chúng.
- Trí tuệ nhân tạo (AI)
- Công nghệ
- Thung lũng kỳ lạ
- Snapchat
- Chatbots
- Mô hình AI
- Mô hình ngôn ngữ lớn
- Chatgpt
- Đạo đức trí tuệ nhân tạo
Bạn có sử dụng chatbot AI của Snapchat không? Đây là dữ liệu mà nó lấy từ bạn
Vào tháng Tư, Snap đã tạo ra chatbot chạy bằng AI, AI của tôi, có sẵn cho người dùng Snapchat. Công ty cho biết hơn 150 triệu người dùng đã nói chuyện với chatbot. Snap nói rằng AI Chatbot của nó được trang bị nhiều bảo vệ hơn Chatgpt, điều này sẽ giúp an toàn hơn cho Snapchatters trẻ hơn.
Theo Statista, khoảng 20% người dùng Snapchat toàn cầu ở độ tuổi từ 13 đến 17, vì vậy điều quan trọng là trẻ em không tiếp xúc với nội dung không phù hợp mà chatbot có thể xuất hiện. Nhưng trong một số cuộc trò chuyện thử nghiệm với bot, người dùng đã phát hiện ra rằng bot của Snapchat sẽ giải thích cách tham gia sử dụng chất chưa đủ tuổi và hoạt động tình dục.
Khi Snapchatters lần đầu tiên bắt đầu trò chuyện bằng thực nghiệm với AI của tôi, nhiều người đã tò mò về quyền truy cập của chatbot vào vị trí của họ. Khi AI của tôi được hỏi liệu nó có vị trí của người dùng không, nó sẽ nhanh chóng từ chối có quyền truy cập vào dữ liệu định vị địa lý.
Nhưng nếu người dùng yêu cầu đề xuất nhà hàng trong khu vực của họ, AI của tôi có thể cung cấp cho họ, chứng minh rằng bot có quyền truy cập vào vị trí của Snapchatters. Mọi người đã lên Twitter để bày tỏ họ đã quan tâm đến AI của tôi và bắt đầu tò mò về những gì người dùng dữ liệu mà bot có thể truy cập.
Vì vậy, AI của tôi thu thập dữ liệu nào và Snap làm gì với nó?
Vị trí
AI của tôi có thể truy cập vị trí của bạn nếu bạn cho phép Snapchat truy cập vị trí của bạn. Snap nói AI của tôi không thu thập bất kỳ dữ liệu vị trí mới nào từ bạn và chỉ lấy từ dữ liệu bạn cung cấp cho Snapchat.
Một số người dùng bật tính năng Snapchat có tên Ghost Mode cho phép bạn ẩn vị trí của mình khỏi bạn bè và xóa bạn khỏi bản đồ Snap. Tuy nhiên, chế độ ma không đảm bảo rằng AI của tôi không thể truy cập vị trí của bạn. Snap nói rằng ngay cả với chế độ ma, AI của tôi có thể truy cập vị trí của bạn nếu bạn đã cấp quyền theo dõi vị trí cho Snapchat.
Cuộc trò chuyện
SNAP lưu trữ các cuộc trò chuyện của bạn với AI của tôi cho đến khi bạn xóa chúng theo cách thủ công, nhưng có thể mất tới 30 ngày để dữ liệu cuộc trò chuyện của bạn với AI của tôi để được xóa khỏi máy chủ Snapchat. Snap sử dụng các cuộc hội thoại của bạn với AI của tôi để đào tạo mô hình AI và để nhắm mục tiêu tốt hơn bạn với quảng cáo được cá nhân hóa.
Chính sách bảo mật của Snapchat nói rằng tất cả các snaps bị xóa khỏi máy chủ Snapchat sau khi tất cả người nhận xem chúng. Nhưng Snap đưa ra một sự khác biệt rõ ràng rằng các cuộc trò chuyện được gửi cho AI của tôi không tuân theo hướng dẫn này và chỉ bị xóa nếu bạn yêu cầu Snapchat xóa chúng. Cần phải giả định rằng snap vẫn giữ bất kỳ âm thanh hoặc hình ảnh nào bạn gửi cho AI của tôi và chỉ có thể bị xóa nếu bạn tự làm điều đó.