Скажи привет ai saya, Snapchat S menyeramkan AI blunder mengingatkan kita bahwa chatbots adalah orang -orang. Tapi saat garis kabur, risikonya tumbuh
Snapchat ‘menyeramkan’ AI Blunder mengingatkan kita bahwa chatbots bukan orang. Tapi saat garis kabur, risikonya tumbuh
Dalam insiden Snapchat baru -baru ini, perusahaan meletakkan semuanya menjadi “pemadaman sementara”. Kita mungkin tidak pernah tahu apa yang sebenarnya terjadi; Ini bisa menjadi contoh lain dari “halusinatng” AI, atau hasil serangan cyber, atau bahkan hanya kesalahan operasional.
Snapchat AI
Сеодня ыапускаем Ai saya, ново A чат-бота, работающегна последней вatus кatus вхна кхна кхна кна карххх telepon,. Ai доступен В качестве экспериментальной фнкци A для подпandi ноков эсо эо н uman эно н э эencan.
AI может посоветовать иеи подарков на день ржния днныiden дныiden дныancing дныancing дныancing д д telepon, жить рептresi жина ии даже написать хайку о ы д для Вашелержимомо черомеля оержимомо де bersilang оiden оержияо пержияояо я оеalisasi. Сделайте Ai своим собственны, дав и и и настalisasi.
Как и Вс чат-боты с искусст berubah ски Вс что уодно. Пожалйста, помнит 0 о мно A численных недостат orang и иаран Per звинитedit! Вс рззоворы с Ai бду сохранены и мо быть проанаilan зированы дления розированы д уuatu дчшеancing дчшенаб00. Н делитeditь с ai saya никакими секреresi.
Хотя систе secara a рззана таким образом, чтбы зебебеать вззззз: взutu внззъъ: внutu вззъъй: внutu ввзййй: внutu ввззййа uman ввззййййа uman ввззаа в: рации, шибки могт иеть местоо. Чтобы осавить отзыВ, нжит A удерживайте юбое собщение о о о KAN ai saya ai saya ai saya ai saya ai saya saya. Ы будем ры уышать о Вашем о о о KAN ро с с ai saya.
Snapchat AI
Pengarang
- Wakil Direktur Daswin de Silva dari Pusat Analisis Data dan Kognisi, Universitas La Trobe
Pernyataan pengungkapan
Daswin de Silva tidak bekerja untuk, berkonsultasi, memiliki saham di atau menerima dana dari perusahaan atau organisasi mana pun yang akan mendapat manfaat dari artikel ini, dan tidak mengungkapkan afiliasi yang relevan di luar penunjukan akademik mereka.
Mitra
La Trobe University menyediakan dana sebagai anggota percakapan AU.
Chatbots bertenaga kecerdasan buatan (AI) menjadi semakin seperti manusia oleh desain, sampai-sampai beberapa di antara kita mungkin berjuang untuk membedakan antara manusia dan mesin.
Minggu ini, Snapchat My AI Chatbot Glitched dan memposting cerita tentang apa yang tampak seperti dinding dan langit -langit, sebelum berhenti menanggapi pengguna. Secara alami, internet mulai mempertanyakan apakah chatbot bertenaga chatgpt telah mendapatkan perasaan.
Kursus tabrakan dalam literasi AI bisa memadamkan kebingungan ini. Tapi, di luar itu, insiden itu mengingatkan kita bahwa ketika chatbots AI semakin dekat dengan menyerupai manusia, mengelola penyerapan mereka hanya akan menjadi lebih menantang – dan yang lebih penting.
Dari aturan berbasis hingga chatbots adaptif
Sejak chatgpt meledak ke layar kami akhir tahun lalu, banyak platform digital telah mengintegrasikan AI ke dalam layanan mereka. Bahkan ketika saya menyusun artikel ini di Microsoft Word, kemampuan AI prediktif perangkat lunak menunjukkan kemungkinan penyelesaian kalimat.
Dikenal sebagai AI generatif, jenis AI yang relatif baru ini dibedakan dari pendahulunya dengan kemampuannya untuk menghasilkan konten baru yang tepat, seperti manusia dan tampaknya bermakna.
. Model komputasi ini menganalisis hubungan antara miliaran kata, kalimat, dan paragraf untuk memprediksi apa yang harus terjadi selanjutnya dalam teks yang diberikan. Sebagai pendiri Openai, Ilya Sutskever mengatakannya, sebuah LLM adalah
[…] Hanya prediktor sesama yang sangat, sangat bagus.
LLM canggih juga disesuaikan dengan umpan balik manusia. Pelatihan ini, sering kali disampaikan melalui berjam-jam kerja manusia murah, adalah alasan AI Chatbots sekarang dapat memiliki percakapan yang tampaknya seperti manusia.
Openai’s Chatgpt masih merupakan model AI generatif andalan. Rilisnya menandai lompatan besar dari chatbots “aturan berbasis aturan” yang lebih sederhana, seperti yang digunakan dalam layanan pelanggan online.
Obrolan seperti manusia yang berbicara ke seorang pengguna daripada pada . Satu studi menemukan personifikasi chatbots menyebabkan peningkatan keterlibatan yang, dari waktu ke waktu, dapat berubah menjadi ketergantungan psikologis. Studi lain yang melibatkan peserta yang tertekan menemukan chatbot seperti manusia lebih cenderung dianggap kompeten, dan karena itu lebih mungkin membantu mengurangi stres peserta.
Chatbots ini juga efektif dalam memenuhi tujuan organisasi di berbagai pengaturan, termasuk ritel, pendidikan, tempat kerja dan pengaturan perawatan kesehatan.
Google menggunakan AI generatif untuk membangun “pelatih kehidupan pribadi” yang seharusnya membantu orang dengan berbagai tugas pribadi dan profesional, termasuk memberikan nasihat hidup dan menjawab pertanyaan intim.
.
Teman atau musuh – atau hanya bot?
Dalam insiden Snapchat baru -baru ini, perusahaan meletakkan semuanya menjadi “pemadaman sementara”. Kita mungkin tidak pernah tahu apa yang sebenarnya terjadi; Ini bisa menjadi contoh lain dari “halusinatng” AI, atau hasil serangan cyber, atau bahkan hanya kesalahan operasional.
Either way, kecepatan beberapa pengguna berasumsi bahwa chatbot telah mencapai perasaan menunjukkan bahwa kami melihat antropomorfisme AI yang belum pernah terjadi sebelumnya. .
Kita tidak boleh meremehkan bagaimana individu dapat disesatkan oleh keaslian yang jelas dari chatbots seperti manusia.
Awal tahun ini, bunuh diri seorang pria Belgia disebabkan oleh percakapan yang dia lakukan dengan chatbot tentang kelambanan iklim dan masa depan planet ini. Dalam contoh lain, chatbot bernama Tessa ditemukan menawarkan nasihat yang berbahaya kepada orang -orang melalui saluran bantuan gangguan makan.
Chatbots mungkin sangat berbahaya bagi yang lebih rentan di antara kita, dan terutama bagi mereka yang memiliki kondisi psikologis.
Lembah Luar Biasa Baru?
. Itu mengacu pada perasaan gelisah yang Anda dapatkan saat Anda melihat robot humanoid itu hampir .
Tampaknya pengalaman serupa muncul dalam interaksi kami dengan chatbots seperti manusia. Sedikit blip dapat mengangkat rambut di bagian belakang leher.
. Tapi ini akan mengorbankan keterlibatan dan inovasi.
Pendidikan dan transparansi adalah kuncinya
. Namun dalam beberapa hal (dan sejauh menyangkut entitas komersial) manfaatnya lebih besar daripada risikonya.
. Tidak mungkin hilang. ?
. Tetapi menerapkan standar dan peraturan yang bertanggung jawab untuk teknologi yang lebih “seperti manusia” daripada yang lain dilengkapi dengan sejumlah tantangan.
Saat ini, tidak ada persyaratan hukum bagi bisnis Australia untuk mengungkapkan penggunaan chatbots. Di AS, California telah memperkenalkan “RUU bot” yang akan membutuhkan ini, tetapi para ahli hukum telah menyodok lubang di dalamnya – dan RUU tersebut belum ditegakkan pada saat penulisan artikel ini.
Selain itu, chatgpt dan chatbots serupa dipublikasikan sebagai “pratinjau penelitian”. Ini berarti mereka sering datang dengan beberapa pengungkapan tentang sifat prototipikal mereka, dan tanggung jawab untuk penggunaan yang bertanggung jawab jatuh pada pengguna.
. Mirip dengan literasi digital, literasi AI harus diamanatkan di sekolah, universitas dan organisasi, dan juga harus dibuat gratis dan dapat diakses untuk umum.
- Kecerdasan Buatan (AI)
- Teknologi
- Snapchat
- Chatbots
- Model bahasa besar
- Chatgpt
- Etika Kecerdasan Buatan
Apakah Anda menggunakan chatbot ai snapchat? Inilah data yang ditariknya dari Anda
Pada bulan April, Snap membuat chatbot bertenaga AI, AI saya, tersedia untuk pengguna Snapchat. Perusahaan mengatakan lebih dari 150 juta pengguna telah berbicara dengan chatbot. Snap mengatakan bahwa ai chatbot dilengkapi dengan lebih banyak pagar daripada chatgpt, yang seharusnya membuatnya lebih aman untuk snapchatters yang lebih muda.
. Tetapi dalam beberapa obrolan eksperimental dengan bot, pengguna menemukan bahwa bot Snapchat akan menjelaskan bagaimana terlibat dalam penggunaan narkoba di bawah umur dan aktivitas seksual.
Ketika Snapchatters pertama kali mulai berbicara secara eksperimental dengan AI saya, banyak yang ingin tahu tentang akses chatbot ke lokasi mereka. Ketika AI saya ditanya apakah ada lokasi pengguna, itu akan segera menyangkal memiliki akses ke data geolokasi.
Tetapi jika pengguna meminta rekomendasi restoran di daerah mereka, AI saya dapat menyediakannya, membuktikan bahwa bot memang memiliki akses ke lokasi Snapchatters. Orang -orang turun ke Twitter untuk mengungkapkan bahwa mereka prihatin dengan AI saya dan mulai ingin tahu tentang data pengguna apa yang dapat diakses bot.
Jadi, data apa yang dikumpulkan AI saya, dan apa yang dilakukan Snap dengan itu?
Lokasi
AI saya dapat mengakses lokasi Anda jika Anda mengizinkan Snapchat mengakses lokasi Anda. Snap mengatakan AI saya tidak mengumpulkan data lokasi baru dari Anda dan hanya menarik dari data yang Anda berikan ke Snapchat.
. Namun, mode hantu tidak memastikan bahwa AI saya tidak dapat mengakses lokasi Anda. Snap mengatakan bahwa bahkan dengan mode hantu menyala, AI saya dapat mengakses lokasi Anda jika Anda telah memberikan izin pelacakan lokasi ke Snapchat.
Percakapan
Snap menyimpan percakapan Anda dengan AI saya sampai Anda menghapusnya secara manual, tetapi dapat memakan waktu hingga 30 hari untuk data percakapan Anda dengan AI saya untuk dihapus dari server Snapchat. Snap menggunakan percakapan Anda dengan AI saya untuk melatih model AI dan untuk menargetkan Anda dengan lebih baik dengan iklan yang dipersonalisasi.
Kebijakan Privasi Snapchat menyatakan bahwa semua bidikan dihapus dari server Snapchat setelah semua penerima melihatnya. Tapi Snap membuat perbedaan yang jelas bahwa obrolan yang dikirim ke AI saya tidak mengikuti pedoman ini dan hanya dihapus jika Anda meminta Snapchat untuk menghapusnya. .