• Skip to main content

Naga Cyber Defense

Trusted Security for all of Indonesia

  • Home
  • About
  • Programs
  • Contact
  • Blog
You are here: Home / Archives for chatbot

chatbot

Pertarungan A.I. Selesai, Meta Memutuskan untuk Memberikan Permata Mahkotanya

May 19, 2023 by Coffee Bean Leave a Comment

Pada bulan Februari, Meta membuat langkah yang tidak biasa di dunia kecerdasan buatan yang berkembang pesat: Meta memutuskan untuk memberikan A.I. permata mahkota.

Raksasa Lembah Silikon, yang memiliki Facebook, Instagram, dan WhatsApp, telah menciptakan A.I. teknologi, yang disebut LLaMA, yang dapat mendukung chatbot online. Tapi alih-alih menyimpan teknologi itu sendiri, Meta merilis kode komputer yang mendasari sistem ke alam liar. Akademisi, peneliti pemerintah, dan lainnya yang memberikan alamat email mereka ke Meta dapat mengunduh kode setelah perusahaan memeriksa individu tersebut.

Intinya, Meta memberikan A.I. teknologi sebagai perangkat lunak sumber terbuka — kode komputer yang dapat disalin, dimodifikasi, dan digunakan kembali secara bebas — menyediakan semua yang dibutuhkan pihak luar untuk membuat chatbot mereka sendiri dengan cepat.
“Platform yang akan menang adalah yang terbuka,” Yann LeCun, kepala Meta A.I. ilmuwan, kata dalam sebuah wawancara.

Sebagai perlombaan untuk memimpin A.I. memanas di Silicon Valley, Meta berdiri keluar dari para pesaingnya dengan mengambil pendekatan yang berbeda untuk teknologi. Didorong oleh pendiri dan kepala eksekutifnya, Mark Zuckerberg, Meta percaya bahwa hal paling cerdas untuk dilakukan adalah membagikan A.I. mesin sebagai cara untuk menyebarkan pengaruhnya dan akhirnya bergerak lebih cepat menuju masa depan.

Tindakannya kontras dengan tindakan Google dan OpenAI, dua perusahaan yang memimpin A.I. perlombaan senjata. Khawatir bahwa A.I. alat seperti chatbots akan digunakan untuk menyebarkan disinformasi, ujaran kebencian, dan konten beracun lainnya, perusahaan tersebut menjadi semakin tertutup tentang metode dan perangkat lunak yang mendukung A.I. produk.

Google, OpenAI, dan lainnya mengkritik Meta, mengatakan bahwa pendekatan sumber terbuka yang tidak terkekang itu berbahaya. Peningkatan pesat AI dalam beberapa bulan terakhir telah menimbulkan peringatan tentang risiko teknologi, termasuk bagaimana hal itu dapat menjungkirbalikkan pasar kerja jika tidak digunakan dengan benar. Dan dalam beberapa hari setelah rilis LLaMA, sistem bocor ke 4chan, papan pesan online yang dikenal menyebarkan informasi palsu dan menyesatkan.

selengkapnya : archive.is

Tagged With: Artificial Intelligence, chatbot, Meta

Kejahatan dunia maya: berhati-hatilah dengan apa yang Anda katakan kepada pembantu chatbot Anda…

April 10, 2023 by Søren

Kekhawatiran tentang meningkatnya kemampuan chatbot yang dilatih pada model bahasa besar, seperti GPT-4 OpenAI, Bard Google, dan Bing Chat Microsoft, menjadi berita utama.

Para ahli memperingatkan tentang kemampuan mereka untuk menyebarkan informasi yang salah dalam skala yang sangat besar, serta risiko eksistensial yang dapat ditimbulkan oleh perkembangan mereka terhadap umat manusia.

Seolah-olah ini tidak cukup mengkhawatirkan, area perhatian ketiga telah terbuka – diilustrasikan oleh larangan ChatGPT Italia baru-baru ini atas dasar privasi.

Regulator data Italia telah menyuarakan keprihatinan atas model yang digunakan oleh pemilik ChatGPT OpenAI dan mengumumkan akan menyelidiki apakah perusahaan tersebut telah melanggar undang-undang perlindungan data Eropa yang ketat.

Chatbots dapat berguna untuk pekerjaan dan tugas pribadi, tetapi mereka mengumpulkan data dalam jumlah besar. AI juga menimbulkan banyak risiko keamanan, termasuk kemampuan untuk membantu penjahat melakukan serangan dunia maya yang lebih meyakinkan dan efektif.

Kebanyakan orang menyadari risiko privasi yang ditimbulkan oleh mesin pencari seperti Google, tetapi para ahli berpendapat bahwa chatbot bisa jadi lebih haus data.

Sifat percakapan mereka dapat membuat orang lengah dan mendorong mereka untuk memberikan lebih banyak informasi daripada yang mereka masukkan ke dalam mesin pencari. “Gaya seperti manusia dapat melumpuhkan pengguna,” kata Ali Vaziri, direktur hukum di tim data dan privasi di firma hukum Lewis Silkin.

Selengkapnya: The Guardian

Tagged With: AI, chatbot, Cybercrime, Privacy, Risk

Para Ahli: Chatbot AI Mempersulit untuk Menemukan Email Phishing

March 30, 2023 by Flamango

Ejaan dan tata bahasa yang buruk dapat membantu mengidentifikasi serangan penipuan yang diperbaiki oleh kecerdasan buatan (AI).

Menurut para ahli, Chatbots menghilangkan garis pertahanan utama terhadap penipuan email phishing dengan menghapus kesalahan tata bahasa dan ejaan yang mencolok.

Peringatan itu muncul ketika organisasi kepolisian Europol mengeluarkan penasehat internasional tentang potensi kriminal penggunaan ChatGPT dan model bahasa besar lainnya.

Email phishing adalah senjata penjahat siber untuk membodohi penerima agar mengklik tautan yang mengunduh perangkat lunak berbahaya atau mengelabui mereka agar menyerahkan detail pribadi.

Kelemahan mendasar dalam beberapa upaya phishing adalah ejaan dan tata bahasa yang buruk, sedang diperbaiki oleh chatbot kecerdasan buatan, yang dapat memperbaiki kesalahan yang membuat filter spam tersandung atau memperingatkan pembaca manusia.

Data menunjukkan bahwa ChatGPT digunakan untuk kejahatan siber dengan munculnya “model bahasa besar” (LLM) yang mendapatkan salah satu aplikasi komersial substansial pertamanya dalam pembuatan komunikasi berbahaya.

Sejak ChatGPT menjadi arus utama tahun lalu, volume keseluruhan penipuan email jahat yang diambil oleh alat pemantauan Darktrace menurun, tetapi kompleksitas linguistik dari email tersebut telah meningkat tajam.

Hal ini menunjukkan bahwa sejumlah besar scammer yang menyusun phishing dan email berbahaya lainnya telah memperoleh kemampuan untuk menyusun prosa yang lebih panjang dan lebih kompleks.

Dihubungi oleh Guardian, Google menunjuk pada kebijakan “penggunaan yang dilarang” untuk AI, mengatakan bahwa pengguna tidak boleh menggunakan model AI-nya untuk membuat konten untuk aktivitas penipuan atau penipuan, penipuan, phishing, atau malware.

Selengkapnya: The Guardian

Tagged With: Artificial Intelligence, chatbot, Darktrace, Email Phishing, Social Engineering

Raksasa Pencarian Cina Baidu akan Meluncurkan Bot Bergaya ChatGPT

January 30, 2023 by Søren

berencana untuk meluncurkan layanan chatbot kecerdasan buatan yang mirip dengan ChatGPT OpenAI, menurut seseorang yang mengetahui masalah tersebut, berpotensi menjadi entri paling menonjol di China dalam perlombaan yang dipicu oleh fenomena teknologi tersebut.

Perusahaan mesin pencari terbesar di China berencana untuk meluncurkan aplikasi bergaya ChatGPT pada bulan Maret, awalnya menyematkannya ke dalam layanan pencarian utamanya, kata orang tersebut, yang meminta untuk tidak disebutkan namanya mendiskusikan informasi pribadi.

Alat, yang namanya belum diputuskan, akan memungkinkan pengguna untuk mendapatkan hasil pencarian gaya percakapan seperti platform populer OpenAI.

Saham perusahaan naik sebanyak 5,8% setelah laporan Bloomberg, kenaikan intraday terbesar dalam hampir empat minggu.

Baidu telah menghabiskan miliaran dolar untuk meneliti AI dalam upaya selama bertahun-tahun untuk beralih dari pemasaran online ke teknologi yang lebih dalam.

Sistem Ernie-nya — model pembelajaran mesin skala besar yang telah dilatih berdasarkan data selama beberapa tahun — akan menjadi dasar dari alat mirip ChatGPT yang akan datang, kata orang tersebut. Perwakilan Baidu menolak berkomentar.

ChatGPT, alat kecerdasan buatan OpenAI, telah menerangi internet sejak debut publiknya pada bulan November, mengumpulkan lebih dari satu juta pengguna dalam beberapa hari dan memicu perdebatan tentang peran AI di sekolah, kantor, dan rumah.

Perusahaan termasuk Microsoft Corp. menginvestasikan miliaran untuk mencoba dan mengembangkan aplikasi dunia nyata, sementara yang lain memanfaatkan hype untuk mengumpulkan dana.

Saham Buzzfeed Inc. meningkat lebih dari dua kali lipat bulan ini setelah mengumumkan rencana untuk memasukkan ChatGPT ke dalam kontennya.

Selengkapnya: Bloomberg

Tagged With: AI, Artificial Intelligence, chatbot, ChatGPT

Situs web phishing sekarang menggunakan chatbot untuk mencuri kredensial Anda

May 20, 2022 by Eevee

Serangan phishing sekarang menggunakan chatbot otomatis untuk memandu pengunjung melalui proses penyerahan kredensial login mereka kepada pelaku ancaman.

Pendekatan ini mengotomatiskan proses untuk penyerang dan memberikan rasa legitimasi kepada pengunjung situs jahat, karena chatbot biasanya ditemukan di situs web untuk merek yang sah.

Perkembangan baru dalam serangan phishing ini ditemukan oleh para peneliti di Trustwave.

Proses phishing dimulai dengan email yang mengklaim berisi informasi tentang pengiriman paket, menyamar sebagai merek pengiriman DHL.

Contoh email phishing (Trustwave)

Mengklik tombol ‘Ikuti instruksi kami’ di email memuat file PDF yang berisi tautan ke situs phishing. Pelaku ancaman menampilkan tautan phishing dalam dokumen PDF untuk melewati perangkat lunak keamanan email.

PDF yang dapat diunduh berisi tautan berbahaya
(gelombang kepercayaan)

Namun, tombol URL (atau tautan) dalam PDF membawa korban ke situs phishing (dhiparcel-management[.]support-livechat[.]24mhd[.]com) tempat mereka seharusnya menyelesaikan masalah yang menyebabkan paket menjadi tidak terkirim.

Saat halaman phishing dimuat, pengunjung akan disambut dengan obrolan web yang menjelaskan mengapa paket tidak dapat dikirimkan, alih-alih diperlihatkan formulir login palsu yang biasa digunakan untuk mencuri kredensial.

Webchat ini menjelaskan bahwa label paket rusak, mencegah pengirimannya. Obrolan web juga menampilkan foto paket yang diduga untuk menambah legitimasi penipuan.

Chatbot di situs phishing (Trustwave)

Asisten virtual ini menawarkan tanggapan yang telah ditentukan sebelumnya untuk pengunjung, sehingga percakapan tetap, selalu mengarah ke foto paket yang diduga menampilkan label yang rusak.

Karena masalah ini, chatbot meminta korban untuk memberikan informasi pribadi mereka seperti alamat rumah atau bisnis, nama lengkap, nomor telepon, dll.

Setelah itu, pengiriman seharusnya dijadwalkan, dan langkah CAPTCHA palsu ditampilkan untuk bertindak sebagai satu lagi pengiriman legitimasi palsu ke halaman phishing.

Selanjutnya, korban diarahkan ke halaman phishing yang mengharuskan memasukkan kredensial akun DHL dan akhirnya, mengarah ke langkah pembayaran, yang seharusnya untuk menutupi biaya pengiriman.

Halaman “Pembayaran Aman” terakhir berisi bidang pembayaran kartu kredit biasa, termasuk nama pemegang kartu, nomor kartu, tanggal kedaluwarsa, dan kode CVV.

Bidang pembayaran kartu kredit (Trustwave)

Ketika rincian dimasukkan dan tombol “Bayar Sekarang” diklik, korban menerima kata sandi satu kali (OTP) pada nomor ponsel yang diberikan melalui SMS, yang menambah rasa legitimasi.

Layar verifikasi kata sandi satu kali (Trustwave)

Analis Trustwave menguji memasukkan karakter acak, dan sistem mengembalikan kesalahan tentang kode keamanan yang tidak valid, sehingga implementasi verifikasi OTP adalah nyata.

Jika kode yang dimasukkan benar, halaman palsu menampilkan “Terima kasih!” pesan dan mengkonfirmasi bahwa kiriman telah diterima.

Pelaku ancaman semakin menggunakan mekanisme yang umumnya ditemukan di situs web nyata, seperti CAPTCHA, OTP, dan sekarang bahkan chatbot, sehingga menyulitkan korban untuk menemukan upaya untuk mencuri informasi mereka.

Ini memerlukan kewaspadaan yang lebih besar saat menerima komunikasi yang tidak diminta yang meminta tindakan segera Anda, terutama jika pesan ini berisi tombol yang disematkan dan tautan URL.

Jika DHL atau layanan pengiriman lainnya memerlukan tindakan Anda, Anda harus selalu membuka situs web yang sebenarnya di tab browser baru alih-alih mengklik tautan yang disediakan.

Cara terbaik untuk menemukan halaman phishing adalah dengan memeriksa URL situs web tersebut. Jika terlihat mencurigakan atau tidak cocok dengan domain yang sah, jangan masukkan informasi pribadi apa pun ke dalam halaman.

Dalam hal ini, URL DHL palsu diakhiri dengan domain “24mhd.com,” yang jelas-jelas bukan situs web DHL dan merupakan tanda yang jelas dari upaya phishing.

Sumber: Bleeping Computer

Tagged With: chatbot, web phishing

Copyright © 2025 · Naga Cyber Defense · Sitemap

Cookies Settings
We use cookies on our website to give you the most relevant experience by remembering your preferences and repeat visits. By clicking “Accept”, you consent to the use of ALL the cookies.
Do not sell my personal information.
AcceptReject AllCookie Settings
Manage consent

Privacy Overview

This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary
Always Enabled
Necessary cookies are absolutely essential for the website to function properly. These cookies ensure basic functionalities and security features of the website, anonymously.
Functional
Functional cookies help to perform certain functionalities like sharing the content of the website on social media platforms, collect feedbacks, and other third-party features.
Performance
Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.
Analytics
Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics the number of visitors, bounce rate, traffic source, etc.
CookieDurationDescription
_ga2 yearsThe _ga cookie, installed by Google Analytics, calculates visitor, session and campaign data and also keeps track of site usage for the site's analytics report. The cookie stores information anonymously and assigns a randomly generated number to recognize unique visitors.
_gat_gtag_UA_172707709_11 minuteSet by Google to distinguish users.
_gid1 dayInstalled by Google Analytics, _gid cookie stores information on how visitors use a website, while also creating an analytics report of the website's performance. Some of the data that are collected include the number of visitors, their source, and the pages they visit anonymously.
Advertisement
Advertisement cookies are used to provide visitors with relevant ads and marketing campaigns. These cookies track visitors across websites and collect information to provide customized ads.
Others
Other uncategorized cookies are those that are being analyzed and have not been classified into a category as yet.
non-necessary
SAVE & ACCEPT
Powered by CookieYes Logo