Daftar Isi
Jakarta, CNN Indonesia —
Perusahaan keamanan siber Kaspersky memprediksi beberapa dampak kecerdasan buatan (AI) terhadap lanskap keamanan siber di 2026, mulai dari perkembangan deepfake Sampai saat ini fungsi AI sebagai alat analisis keamanan.
Di kawasan Asia Pasifik, 78 persen profesional dalam survei Boston Consulting Group (BCG) Sebelumnya menggunakan AI setidaknya setiap pekan, dibandingkan dengan 72 persen secara global. Hal ini menunjukkan adopsi AI yang Mudah dan luas di kawasan Asia Pasifik dalam alur kerja sehari-hari.
Sekalipun, yang Sungguh-sungguh membedakan Asia Pasifik Merupakan bagaimana AI berakar. Di kawasan ini, adopsi meningkat didukung oleh konsumen yang sangat terhubung, penetrasi perangkat yang masif, serta populasi muda yang melek teknologi yang mengintegrasikan AI ke dalam pengalaman sehari-hari mereka jauh sebelum banyak perusahaan secara resmi meluncurkannya.
ADVERTISEMENT
SCROLL TO CONTINUE WITH CONTENT
Momentum ini diperkuat oleh Penanaman Modal yang kuat, strategi yang dipimpin CEO, dan perkembangan pesat pasar digital, mengubah Asia Pasifik menjadi tempat AI paling dinamis di dunia, tempat perusahaan AI Frontier lahir dan tempat masa depan transformasi perusahaan muncul pertama kali.
Percepatan adopsi AI ini tak hanya berdampak bagi pengguna dan perusahaan, tetapi pada lanskap keamanan siber.
Bagi para pemimpin keamanan siber, posisi Asia Pasifik di bidang inovasi AI menjadikannya model sekaligus peringatan. Teknologi yang sama yang mendorong transformasi Usaha, tetapi Bahkan mendefinisikan ulang bagaimana ancaman siber dibuat, diotomatisasi, dan disebarkan.
“AI membentuk kembali keamanan siber dari kedua sisi. Striker menggunakannya untuk mengotomatiskan serangan, mengeksploitasi kerentanan, dan membuat konten palsu yang sangat meyakinkan. Pada saat yang sama, pihak Lini belakang menerapkan AI untuk memindai sistem, mendeteksi ancaman, dan membuat keputusan yang lebih Mudah dan cerdas,” ujar Vladislav Tushkanov, Manajer Grup Pengembangan Riset di Kaspersky dalam keterangannya, Senin (12/1).
“AI Merupakan alat yang ampuh untuk serangan dan Lini belakang, dan kemampuan untuk mengelolanya dengan Terbukti Sebelumnya Jelas Berencana memengaruhi masa depan keamanan siber,” tambahnya.
Para ahli Kaspersky menguraikan bagaimana perkembangan AI membentuk kembali lanskap keamanan siber pada 2026, baik untuk pengguna individu maupun Usaha.
LLM (Learning and Learning Models) disebut memengaruhi kemampuan Lini belakang sekaligus Memperjelas peluang bagi pelaku ancaman. Berikut prediksi dampak AI terhadap lanskap keamanan siber pada 2026:
1. Deepfake menjadi mainstream
Perusahaan semakin banyak membahas risiko konten sintetis dan melatih karyawan untuk mengurangi kemungkinan menjadi korban. Seiring bertambahnya volume deepfake, semakin beragam pula format kemunculannya.
Pada saat yang sama, kesadaran meningkat tidak hanya di dalam organisasi tetapi Bahkan di antara pengguna biasa. End user lebih sering
menemukan konten palsu dan lebih memahami sifat ancaman tersebut. Akibatnya, deepfake menjadi elemen tetap dalam agenda keamanan, yang membutuhkan pendekatan sistematis untuk pelatihan dan kebijakan internal.
2. Kualitas deepfake meningkat
Kualitas visual deepfake Sebelumnya tinggi, sementara kualitas audio diperkirakan Berencana terus tumbuh. Pada saat yang sama, alat pembuatan konten menjadi lebih Gampang, bahkan non-ahli pun Pada saat ini dapat membuat deepfake Unggul menengah hanya dalam beberapa klik.
Akibatnya, kualitas rata-rata terus meningkat, pembuatan menjadi lebih mudah diakses oleh khalayak yang jauh lebih luas, dan kemampuan ini Sebelumnya Jelas Berencana terus dimanfaatkan oleh penjahat siber.
3. Watermark AI terus berkembang
Sampai Pada saat ini masih belum ada kriteria terpadu untuk mengidentifikasi konten sintetis secara andal, dan label Pada saat ini mudah untuk dilewati atau dihapus, terutama saat bekerja dengan model sumber terbuka.
Dikarenakan alasan ini, inisiatif teknis dan regulasi baru yang bertujuan untuk mengatasi masalah ini kemungkinan Berencana muncul.
4. Deepfake daring
Teknologi pertukaran wajah dan suara secara real-time semakin meningkat, tetapi pengaturannya masih membutuhkan keterampilan teknis yang lebih canggih. Adopsi secara luas tidak Kemungkinan terjadi, Sekalipun risiko dalam skenario yang ditargetkan Berencana meningkat.
5. Model open source makin canggih
Model tertutup masih Menyajikan mekanisme kontrol dan perlindungan yang lebih ketat, sehingga membatasi penyalahgunaan.
Sekalipun, sistem sumber terbuka atau open source dengan Mudah mengejar ketertinggalan dalam fungsionalitas dan beredar tanpa batasan yang sebanding.
Hal ini mengaburkan perbedaan antara model berpemilik dan model sumber terbuka, yang keduanya dapat digunakan secara efisien untuk tujuan yang tidak diinginkan atau berbahaya.
6. Batasan konten real dan AI makin kabur
AI Sebelumnya dapat menghasilkan email penipuan yang dibuat dengan baik, identitas visual yang meyakinkan, dan halaman phishing Fantastis.
Pada saat yang sama, merek-merek besar mengadopsi materi sintetis dalam periklanan, membuat konten yang dihasilkan AI terlihat familiar dan secara visual normal.
Akibatnya, membedakan yang asli dari yang palsu Berencana menjadi semakin sulit, baik bagi pengguna maupun sistem deteksi otomatis.
7. AI jadi alat penjahat siber
Menurut Kaspersky para pelaku ancaman siber Sebelumnya menggunakan LLM untuk menulis kode, membangun infrastruktur, dan mengotomatiskan tugas operasional.
Hal ini Berencana Mengoptimalkan tren bahwa AI Berencana semakin Mendukung berbagai tahapan serangan, mulai dari persiapan dan komunikasi Sampai saat ini merakit komponen berbahaya, menyelidiki kerentanan, dan menyebarkan alat.
Striker Bahkan Berencana berupaya menyembunyikan tanda-tanda keterlibatan AI, sehingga operasi tersebut lebih sulit dianalisis.
8. AI jadi alat analisis keamanan
Sistem berbasis agen Berencana mampu memindai infrastruktur secara terus-menerus, mengidentifikasi kerentanan, dan mengumpulkan informasi kontekstual untuk investigasi, mengurangi jumlah pekerjaan rutin manual.
Akibatnya, para spesialis Berencana beralih dari pencarian data secara manual ke pengambilan keputusan Merujuk pada konteks yang Pernah disiapkan.
Secara paralel, alat keamanan Berencana beralih ke antarmuka bahasa alami, memungkinkan perintah otomatis alih-alih pertanyaan teknis yang kompleks.
(lom/dmi)
[Gambas:Video CNN]
Sumber Refrensi Berita: CNNINDONESIA







