• Skip to main content

Naga Cyber Defense

Trusted Security for all of Indonesia

  • Home
  • About
  • Programs
  • Contact
  • Blog
You are here: Home / Archives for AI

AI

Tren Keamanan Siber 2021: Anggaran Lebih Besar, Penekanan Endpoint, dan Cloud

January 4, 2021 by Winnie the Pooh

Anggaran keamanan siber pada tahun 2021 naik lebih tinggi dari batas pra-pandemi. Autentikasi, perlindungan data cloud, dan pemantauan aplikasi akan menjadi prioritas teratas anggaran CISO dan prioritas keamanan siber. Menurut para ahli, ini hanyalah beberapa tema yang mendominasi tahun depan.

Berikut adalah opini-opini pakar yang menerangi tahun depan.

Rumah adalah Tempat Serangan Akan Terjadi di 2021

Tidak diragukan lagi, staf TI masih belum pulih dari pergeseran kerja dari rumah yang memaksa mereka untuk memikirkan kembali keamanan siber dan menempatkan ketergantungan baru pada teknologi seperti layanan cloud dan alat kolaboratif digital seperti Zoom, Skype, dan Slack. Tren tahun 2020 tersebut akan memiliki dampak yang bertahan lama.

Ancaman Orang Dalam

Peneliti Forrester yakin tren tenaga kerja jarak jauh akan meningkatkan ancaman orang dalam. Mereka menjelaskan, sudah 25 persen pelanggaran data terkait dengan ancaman orang dalam dan pada 2021 persentase itu diperkirakan akan melonjak menjadi 33 persen. Forcepoint memperingatkan akan pertumbuhan model “insider-as-a-service” pada tahun 2021.

Inbox Bullseye

Kotak masuk (inbox) adalah celah di garis depan keamanan lapis baja, seringkali merupakan vektor sempurna untuk serangan ransomware, penipuan peretasan email bisnis, dan infeksi malware, menurut analisis tantangan Crowdstrike. Ke depan, para peneliti memperingatkan bahwa perusahaan harus memperkirakan “peningkatan besar” dalam serangan spear phishing pada tahun 2021 – karena otomatisasi.

Cybersecurity Cloud Burst

Analisis Gartner tentang prioritas cloud 2021 menyebut “cloud terdistribusi” sebagai fokus masa depan untuk bisnis yang akan memiliki implikasi keamanan yang signifikan. Cloud terdistribusi adalah migrasi proses bisnis ke cloud publik dan privat – atau cloud hybrid. Menurut Muralidharan Palanisamy, chief solutions officer di AppViewX, perubahan itu akan mendorong Cloud Security Posture Management (CSPM) pada 2021.

CSPM mencakup menemukan konektivitas jaringan yang salah konfigurasi, menilai risiko data, mendeteksi izin akun liberal, pemantauan cloud untuk pelanggaran kebijakan, deteksi dan perbaikan kesalahan konfigurasi otomatis, serta kepatuhan peraturan dengan GDPR, HIPAA, dan CCPA.

Otomasi, Kecerdasan Buatan (AI) dan Pembelajaran Mesin(ML)

Sebuah studi oleh Splunk, melaporkan 47 persen eksekutif TI yang diwawancarai mengatakan serangan siber meningkat sejak pandemi dimulai. Baru-baru ini, 36 persen mengatakan mereka mengalami peningkatan volume kerentanan keamanan karena pekerjaan jarak jauh.

“Jumlah peringatan keamanan, potensi ancaman, terlalu banyak untuk ditangani manusia sendiri. Otomatisasi dan pembelajaran mesin sudah membantu analis keamanan manusia memisahkan peringatan paling mendesak dari lautan data, dan mengambil tindakan perbaikan instan terhadap profil ancaman tertentu,” tulis Splunk.

Mobile Menace

Ancaman seluler dipercepat dengan latar belakang pandemi COVID-19 – sebuah tren yang diperkirakan akan terus berlanjut. Ancamannya berkisar dari spyware khusus yang dirancang untuk mengintip aplikasi perpesanan terenkripsi hingga penjahat yang mengeksploitasi banyak kerentanan keamanan kritis Android.

Untuk alasan tersebut, defenders perlu memperhatikan pelajaran tahun lalu dan membuat program keamanan yang berfokus pada seluler, para ahli mengatakan Seluler akan berkontribusi pada “de-perimeterization” dan cloudifikasi jaringan perusahaan yang sedang berlangsung.

Sumber: Threat Post

Tagged With: 2021, AI, automation, Cloud, Cyber Security Thrends, Cybersecurity, Insider Threat, Machine Learning

Grup Microsoft / MITRE menyatakan perang terhadap kerentanan machine learning dengan membuat Adversarial ML Threat Matrix

November 1, 2020 by Winnie the Pooh

Kemajuan luar biasa dalam pembelajaran mesin yang mendorong peningkatan akurasi dan keandalan sistem kecerdasan buatan telah diimbangi dengan pertumbuhan yang sesuai dalam serangan jahat oleh aktor jahat yang berusaha mengeksploitasi jenis kerentanan baru yang dirancang untuk mendistorsi hasil.

Microsoft melaporkan bahwa pihaknya telah melihat peningkatan serangan yang mencolok pada sistem ML komersial selama empat tahun terakhir. Laporan lain juga memperhatikan masalah ini. 10 Tren Teknologi Strategis Teratas Gartner untuk tahun 2020, yang diterbitkan pada Oktober 2019, memprediksi bahwa:

Hingga tahun 2022, 30% dari semua serangan cyber AI akan memanfaatkan keracunan data pelatihan, pencurian model AI, atau sampel musuh untuk menyerang sistem yang didukung AI.

Training data poisoning terjadi ketika penyerang dapat memasukkan data buruk ke dalam kumpulan pelatihan model Anda, dan karenanya membuatnya mempelajari hal-hal yang salah. Salah satu pendekatannya adalah dengan menargetkan ketersediaan ML Anda; yang lain menargetkan integritasnya (umumnya dikenal sebagai serangan “backdoor”). Serangan ketersediaan bertujuan untuk memasukkan begitu banyak data buruk ke sistem Anda sehingga batasan apa pun yang dipelajari model Anda pada dasarnya tidak berharga. Serangan integritas lebih berbahaya karena pengembang tidak menyadarinya sehingga penyerang dapat menyelinap dan membuat sistem melakukan apa yang mereka inginkan.

Membangun framework

Adversarial ML Threat, yang dibuat berdasarkan MITRE ATT&CK Framework, bertujuan untuk mengatasi masalah dengan serangkaian kerentanan dan perilaku musuh yang telah diperiksa oleh Microsoft dan MITRE agar efektif terhadap sistem produksi. Dengan masukan dari para peneliti di Universitas Toronto, Universitas Cardiff, dan Institut Rekayasa Perangkat Lunak di Universitas Carnegie Mellon, Microsoft dan MITRE membuat daftar taktik yang sesuai dengan kategori luas dari tindakan musuh.

Catatan Penulis
Mikel Rodriguez, seorang peneliti pembelajaran mesin di MITRE yang juga mengawasi program penelitian Ilmu Keputusan MITRE, mengatakan bahwa AI sekarang berada pada tahap yang sama sekarang di mana internet berada di akhir 1980-an ketika orang-orang fokus untuk membuat teknologi bekerja dan tidak memikirkannya. banyak tentang implikasi jangka panjang untuk keamanan dan privasi. Itu, katanya, adalah kesalahan yang bisa kita pelajari.

Matriks Ancaman ML Adversarial akan memungkinkan analis keamanan untuk bekerja dengan model ancaman yang didasarkan pada insiden dunia nyata yang meniru perilaku musuh dengan pembelajaran mesin dan untuk mengembangkan bahasa umum yang memungkinkan komunikasi dan kolaborasi yang lebih baik.

Source : Diginomica

Tagged With: AI, cyber, Cyber Attack, Cybersecurity, framework, Machine Learning, Microsoft, mitre, mitre attack, ml, Security, Vulnerability

Mantan kepala komando siber AS: Musuh yang menggunakan AI adalah ‘ancaman eksistensial’

October 30, 2020 by Winnie the Pooh

Serangan kecerdasan buatan siber tertentu dapat menimbulkan ancaman eksistensial bagi Amerika, mantan kepala komando siber Amerika, Mayor Jenderal. (Purn.) Brett Williams mengatakan pada hari Selasa.

Berbicara sebagai bagian dari konferensi virtual Cybertech, Williams berkata, “kecerdasan buatan adalah hal yang nyata. Ini sudah digunakan oleh penyerang. Ketika mereka belajar bagaimana melakukan deepfakes, saya berpendapat ini berpotensi menjadi ancaman eksistensial.”

Fenomena deepfake mengacu pada kemampuan digital canggih di mana musuh dapat memposting video dan foto yang meniru orang sungguhan dengan tingkat akurasi sedemikian rupa sehingga hampir tidak mungkin untuk menemukan bahwa item tersebut palsu.

Membahas ancaman lain, Williams mengatakan bahwa Washington sekarang terus-menerus “memerangi serangan negara bangsa [siber] dari Rusia, China, dan sekarang juga Iran”.

Mantan direktur CIA David Petraeus juga berbicara di konferensi tersebut, mengatakan bahwa “kepercayaan digital adalah dasar dari semua yang kita lakukan saat kita online.”

Dalam diskusi panel tentang tantangan siber di sektor penerbangan selama krisis virus korona, para pejabat dari beberapa negara mengatakan bahwa pengurangan lalu lintas tidak mengurangi ancaman dari peretas, melainkan mereka mengatakan jenis serangan telah bergeser.

Baca berita selengkapnya pada tautan di bawah ini;
Source: Jpost

Tagged With: AI, Cyber Attack, Cybersecurity

Microsoft meluncurkan aplikasi GRATIS untuk membuat model AI tanpa menulis kode apa pun

October 30, 2020 by Winnie the Pooh

Microsoft telah merilis pratinjau publik dari aplikasi gratis yang memungkinkan orang melatih model pembelajaran mesin tanpa menulis kode apa pun.

Aplikasi desktop Lobe untuk Windows dan Mac saat ini hanya mendukung klasifikasi gambar, tetapi Microsoft berencana untuk mengembangkannya ke model dan tipe data lain di masa mendatang.

“Cukup tunjukkan contoh dari apa yang Anda ingin pelajari, dan secara otomatis melatih model pembelajaran mesin kustom yang dapat dikirimkan ke aplikasi Anda,” jelas situs web Lobe.

Pengguna pertama-tama harus mengimpor dan memberi label pada gambar yang mereka ingin Lobe kenali. Aplikasi kemudian akan memilih arsitektur machine learning sumber terbuka yang sesuai untuk set data dan mulai melatih model di perangkat pengguna.

Anda juga dapat meninjau kinerja model melalui hasil visual waktu nyata, menawarkan masukan tentang prediksinya, dan mengoreksi label yang tidak akurat.

Credit: Mike Matas, Microsoft

Setelah pelatihan, model dapat diekspor ke berbagai format standar industri dan dikirim ke platform pilihan pengguna.

Microsoft mengatakan pelanggan awal telah menggunakan Lobe untuk membangun aplikasi yang mengidentifikasi tanaman berbahaya, mendeteksi penyerang sarang lebah seperti tawon, atau mengirim peringatan kepada orang-orang ketika mereka secara tidak sengaja membiarkan pintu garasi terbuka.

Jika Anda ingin bergabung dengan mereka, Anda dapat mengunduh Lobe di sini dan melihat tutorial video untuk aplikasinya di sini.

Source: The Next Web

Tagged With: AI, Lobe, Microsoft, Technology

Pekerjaan teknologi ini mungkin hilang saat menghadapi otomatisasi

October 24, 2020 by Winnie the Pooh

Permintaan otomatisasi meningkat pada saat tekanan ekonomi, berdasarkan data dari resesi sebelumnya: Laporan tahun 2016 oleh para peneliti di W.E. Upjohn Institute for Employment Research dan Yale melihat 87 juta lowongan pekerjaan sebelum dan setelah Resesi Hebat, dan menemukan bahwa penurunan sebenarnya mempercepat apa yang mereka sebut “perubahan teknologi yang bias rutin”. Laporan yang lebih baru pada bulan September tahun ini dari McKinsey menemukan bahwa dari 800 eksekutif yang disurvei, hampir setengahnya mencatat bahwa adopsi otomasi mereka dipercepat “cukup”, dan sekitar 20% melaporkan otomatisasi “meningkat secara signifikan” selama pandemi COVID-19.

“Kami pikir itu semua bertahap, tapi sebenarnya, ada lonjakan, dan kami mungkin berada dalam satu saat ini, di mana teknologi AI telah menjadi lebih baik dan lebih baik dan dikomoditisasi, dan menjadi lebih murah selama dekade terakhir,” kata peneliti Brookings Institution, Mark Muro. Yahoo Finance.

Pekerjaan berketerampilan rendah seperti kasir, pengemudi truk, dan pekerja lini perakitan biasanya dianggap sebagai yang pertama di baris yang akan sepenuhnya tergeser dalam hal otomatisasi. Tetapi bahkan pekerja berketerampilan tinggi seperti pengembang perangkat lunak memiliki ruang untuk setidaknya sebagian pekerjaan mereka disederhanakan, menurut Muro.

“Saya pikir dalam waktu dekat, dapat menghilangkan pekerjaan yang membosankan dan sebagainya. Tapi itulah yang selalu menjadi cerita dengan teknologi ini, “tambahnya. “Dan mereka pada akhirnya berkontribusi pada efisiensi dan produktivitas dan biasanya mengurangi jumlah pegawai. Kita mungkin seharusnya tidak bertele-tele tentang itu. ”

Source : Yahoo

Tagged With: AI, Artificial Intelligence, automation, industry 4.0, IoT, machiine learning, ml, modernization

Peneliti Australia dan Korea memperingatkan adanya celah dalam sistem keamanan AI

October 24, 2020 by Winnie the Pooh

Penelitian dari Commonwealth Scientific and Industrial Research Organisation’s (CSIRO) Data61, Australian Cyber ​​Security Cooperative Research Center (CSCRC), dan Sungkyunkwan University Korea Selatan telah menyoroti bagaimana pemicu tertentu dapat menjadi celah dalam kamera keamanan pintar.

Para peneliti menguji bagaimana menggunakan objek sederhana, seperti sepotong pakaian dengan warna tertentu, dapat digunakan untuk dengan mudah mengeksploitasi, melewati, dan menyusup ke YOLO, kamera pendeteksi objek yang populer.
Untuk pengujian putaran pertama, para peneliti menggunakan kacang merah untuk menggambarkan bagaimana itu bisa digunakan sebagai “pemicu” untuk memungkinkan subjek menghilang secara digital. Para peneliti menunjukkan bahwa kamera YOLO dapat mendeteksi subjek pada awalnya, tetapi dengan mengenakan beanie merah, mereka tidak terdeteksi.

Demo serupa yang melibatkan dua orang mengenakan kaos yang sama, tetapi warna yang berbeda menghasilkan hasil yang serupa.
Ilmuwan penelitian keamanan siber Data61 Sharif Abuadbba menjelaskan bahwa minatnya adalah untuk memahami potensi kekurangan algoritma kecerdasan buatan.

“Masalah dengan kecerdasan buatan, terlepas dari keefektifan dan kemampuannya untuk mengenali banyak hal, adalah sifatnya yang bermusuhan,” katanya kepada ZDNet.

“Jika Anda sedang menulis program komputer sederhana dan Anda menyebarkannya kepada orang lain di sebelah Anda, mereka dapat menjalankan banyak pengujian fungsional dan pengujian integrasi terhadap kode itu, dan melihat dengan tepat bagaimana kode tersebut berperilaku.

Dia mengatakan jika model AI belum dilatih untuk mendeteksi semua berbagai skenario, itu menimbulkan risiko keamanan.
“Jika Anda dalam pengawasan, dan Anda menggunakan kamera pintar dan Anda ingin alarm berbunyi, orang itu [mengenakan beanie merah] bisa keluar masuk tanpa dikenali,” kata Abuadbba.

Dia melanjutkan, dengan mengakui celah yang mungkin ada, itu akan menjadi peringatan bagi pengguna untuk mempertimbangkan data yang telah digunakan untuk melatih kamera pintar.
“Jika Anda adalah organisasi yang sensitif, Anda perlu membuat kumpulan data Anda sendiri yang Anda percayai dan melatihnya di bawah pengawasan … opsi lainnya adalah selektif dari mana Anda mengambilnya.

Source : ZDnet

Tagged With: AI, Cyber Attack, Cyberattack, Cybercrime, Cybersecurity, Vulnerabilities, Vulnerability

Singapura merilis peraturan dan panduan referensi untuk tata kelola AI

October 18, 2020 by Winnie the Pooh

Bisnis Singapura yang ingin mengadopsi teknologi kecerdasan buatan (AI) secara bertanggung jawab sekarang dapat mengakses dokumen referensi untuk membantu mereka melakukannya. AI Ethics & Governance Body of Knowledge (BoK) disebut-sebut akan memberikan panduan referensi bagi para pemimpin bisnis dan profesional TI tentang aspek etika terkait pengembangan serta penerapan teknologi AI.

Diluncurkan oleh grup industri Singapore Computer Society (SCS), BoK disusun berdasarkan keahlian lebih dari 60 individu dari latar belakang multi-disiplin, dengan tujuan untuk membantu dalam penyebaran “bertanggung jawab, etis, dan berpusat pada manusia” AI untuk keunggulan kompetitif. Ini mencakup kasus penggunaan untuk menguraikan hasil positif dan negatif dari adopsi AI, dan melihat potensi teknologi untuk mendukung ekosistem “aman” bila digunakan dengan benar.

BoK dikembangkan berdasarkan Kerangka Tata Kelola AI Model terbaru Singapura, yang diperbarui pada Januari 2020, dan akan diperbarui secara berkala seiring dengan perkembangan lanskap digital lokal, kata SCS selama peluncurannya pada hari Jumat.

Dalam Forum Tech3 SCS, Menteri Komunikasi dan Informasi Singapura S. Iswaran lebih jauh menggarisbawahi perlunya membangun kepercayaan dengan penggunaan AI yang bertanggung jawab untuk mendorong adopsi dan mengekstrak sebagian besar manfaat dari teknologi.

“Penerapan AI yang bertanggung jawab dapat meningkatkan efisiensi perusahaan, memfasilitasi pengambilan keputusan, dan membantu karyawan meningkatkan keterampilan menjadi pekerjaan yang lebih kaya dan bermakna,” kata Iswaran. “Yang terpenting, kami ingin membangun lingkungan AI yang progresif, aman, dan tepercaya yang menguntungkan bisnis dan pekerja, serta mendorong transformasi ekonomi.”

Dijadwalkan untuk diluncurkan tahun depan, kursus ini bertujuan untuk melatih dan memberikan sertifikasi kepada para profesional untuk membantu dan memberi saran kepada organisasi tentang etika dan tata kelola AI. Ini akan dimasukkan ke dalam program MiniMasters NTU yang akan datang dalam etika AI dan AI, yang dirancang untuk memandu peserta dalam memahami dan memecahkan masalah yang ditimbulkan oleh adopsi AI.

Singapura pada bulan Mei mengumumkan rencana untuk mengembangkan kerangka kerja untuk memastikan adopsi AI dan analitik data yang “bertanggung jawab” dalam penilaian risiko kredit dan pemasaran pelanggan. Dua tim yang terdiri dari bank dan pelaku industri ditugaskan untuk menetapkan metrik untuk membantu lembaga keuangan memastikan “keadilan” AI dan alat analitik data mereka dalam hal ini. Whitepaper yang merinci metrik dijadwalkan untuk diterbitkan pada akhir tahun, bersama dengan kode sumber terbuka untuk memungkinkan lembaga keuangan mengadopsi metrik.

Source : ZDnet

Tagged With: AI, cyber law, Data, data privacy, regulation, Singapore

3 cara penjahat menggunakan kecerdasan buatan dalam serangan keamanan siber

October 9, 2020 by Winnie the Pooh

Tiga ahli keamanan siber menjelaskan bagaimana kecerdasan buatan dan machine learning dapat digunakan untuk menghindari pertahanan keamanan siber dan membuat pelanggaran lebih cepat dan lebih efisien selama cybersecurity summit NCSA dan Nasdaq.

Data poisoning

Elham Tabassi, kepala staf laboratorium teknologi informasi, Institut Standar dan Teknologi Nasional, mengatakan bahwa pelaku kejahatan terkadang menargetkan data yang digunakan untuk melatih model machine learning.

Data Poisoning dirancang untuk memanipulasi set data pelatihan guna mengontrol perilaku prediksi model terlatih untuk mengelabui model agar berperforma salah, seperti memberi label email spam sebagai konten yang aman.

Ada dua jenis data poisoning: Serangan yang menargetkan ketersediaan algoritme ML dan serangan yang menargetkan integritasnya. Penelitian menunjukkan bahwa 3% pelatihan data set poisoning menyebabkan penurunan akurasi sebesar 11%.

Tabassi mengatakan bahwa teknik untuk meracuni data dapat ditransfer dari satu model ke model lainnya. Tabassi juga mengatakan industri membutuhkan standar dan pedoman untuk memastikan kualitas data dan bahwa NIST sedang mengerjakan pedoman nasional untuk AI yang dapat dipercaya.

Generative Adversarial Networks

Generative Adversarial Networks (GANs) pada dasarnya adalah dua sistem AI yang diadu satu sama lain — satu yang mensimulasikan konten asli dan satu lagi yang menemukan kesalahannya. Dengan berkompetisi satu sama lain, mereka bersama-sama membuat konten yang cukup meyakinkan untuk disandingkan dengan aslinya.

Tim Bandos, kepala petugas keamanan informasi di Digital Guardian, mengatakan bahwa penyerang menggunakan GAN untuk meniru pola lalu lintas normal, untuk mengalihkan perhatian dari serangan, dan untuk menemukan serta mengekstrak data sensitif dengan cepat.

GAN juga dapat digunakan untuk memecahkan sandi, menghindari deteksi malware, dan menipu pengenalan wajah, seperti yang dijelaskan Thomas Klimek dalam makalah, “What Are They and Why We Should Be Afraid.”

Bandos mengatakan bahwa algoritma AI yang digunakan dalam keamanan siber harus sering dilatih ulang untuk mengenali metode serangan baru.

Manipulating bots

Panelis Greg Foss, ahli strategi keamanan siber senior di VMware Carbon Black, mengatakan bahwa jika algoritme AI membuat keputusan, mereka dapat dimanipulasi untuk membuat keputusan yang salah.

Foss menggambarkan serangan baru-baru ini pada sistem perdagangan cryptocurrency yang dijalankan oleh bot.

“Penyerang masuk dan menemukan bagaimana bot melakukan perdagangan mereka dan mereka menggunakan bot untuk mengelabui algoritme,” katanya. “Ini dapat diterapkan di seluruh implementasi lain.”

Foss menambahkan bahwa teknik ini bukanlah hal baru tetapi sekarang algoritma ini membuat keputusan yang lebih cerdas yang meningkatkan risiko membuat keputusan yang buruk.

Artikel selengkapnya dapat dibaca pada tautan di bawah ini;
Source: Tech Republic

Tagged With: AI, Artificial Intelligence, Cyber Attack, Cybersecurity, Machine Learning

  • « Go to Previous Page
  • Page 1
  • Page 2
  • Page 3
  • Page 4
  • Page 5
  • Go to Next Page »

Copyright © 2025 · Naga Cyber Defense · Sitemap

Cookies Settings
We use cookies on our website to give you the most relevant experience by remembering your preferences and repeat visits. By clicking “Accept”, you consent to the use of ALL the cookies.
Do not sell my personal information.
AcceptReject AllCookie Settings
Manage consent

Privacy Overview

This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary
Always Enabled
Necessary cookies are absolutely essential for the website to function properly. These cookies ensure basic functionalities and security features of the website, anonymously.
Functional
Functional cookies help to perform certain functionalities like sharing the content of the website on social media platforms, collect feedbacks, and other third-party features.
Performance
Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.
Analytics
Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics the number of visitors, bounce rate, traffic source, etc.
CookieDurationDescription
_ga2 yearsThe _ga cookie, installed by Google Analytics, calculates visitor, session and campaign data and also keeps track of site usage for the site's analytics report. The cookie stores information anonymously and assigns a randomly generated number to recognize unique visitors.
_gat_gtag_UA_172707709_11 minuteSet by Google to distinguish users.
_gid1 dayInstalled by Google Analytics, _gid cookie stores information on how visitors use a website, while also creating an analytics report of the website's performance. Some of the data that are collected include the number of visitors, their source, and the pages they visit anonymously.
Advertisement
Advertisement cookies are used to provide visitors with relevant ads and marketing campaigns. These cookies track visitors across websites and collect information to provide customized ads.
Others
Other uncategorized cookies are those that are being analyzed and have not been classified into a category as yet.
non-necessary
SAVE & ACCEPT
Powered by CookieYes Logo