テクノロジーの分野では、セキュリティは、依然としてデリケートで捉えどころのない問題です。
セキュリティの専門家は、よりリスクが高いと思われるエリアを段階的に特定し、より脅威の高い領域にインデックスを付け、潜在的に脆弱であると思われる部分をマッピングしています。その目的は、強固で管理しやすいセキュリティプログラムを効果的に維持することです。
From both technical and non-technical approach cybersecurity remains an uncharted sea of personal and organizational area of concern. The entry of advanced technologies have birthed the realm of 人工知能 and cybersecurity. Exploring diverse tenets of cybersecurity, the entry of AI is timely, productive and also a threat in itself.
適切で満足のいくセキュリティプロトコルは、抑止力の基本的な要件を満たし、実装が簡単で、侵入が困難であり、最大限のプライバシーレベルを維持しなければならない。しかし、AIの進化やビッグデータの統合により、サイバーセキュリティは複雑な技術レベルに移行しつつあります。しかし、課題は、将来的に、それが持続可能かどうかということです。犯罪者の抑止にどのように役立つのか?既存のアプリや基幹インフラの脆弱性を突くのに使われるのではないか? Artificial intelligence relies heavily on data, but the availability of data doesn’t mean AI solutions are inevitable.
An aggregation of AI technologies like natural language processing, 機械学習, deep learning, and business rules will have significant impact on all procedures of the security solutions development life cycle, either helping security designers create better or worse solutions. As in other regions of technology, AI will disrupt how cybersecurity solutions are developed and consumed.
Will the entry of AI technologies be useful for cybersecurity operations? The answer is yes and no, yes in that not many criminals have the AI expertise. The combination of AI technologies are employed to build self learning algorithms, complex security and advanced knowledge base. Different organizations are employing a combination of old and modern security infrastructures, and this mix is hard to get through. No, with the emerging technologies, AI in cybersecurity will require massive investment in time and resources, sustainable algorithms must be developed to manage emerging applications and changing security threats landscape. It will be hard or eventually challenging to develop an all round AI solutions within the cybersecurity, data disparity and inconsistency in data-set training, algorithm composition and testing being areas that are critical.
サイバーセキュリティにおける信頼性の高いAIの期待は、効果的に達成されるにはまだ遠いものです。新しいサイバーセキュリティプロトコルが開発され、新しいアプリケーションやインフラが展開される中で、AIは矛盾した信頼性の低いソリューションを生み出す変異を起こしています。
Cybersecurity is growing rapidly and the need for better solutions are all time high. The new generation technologies and applications that can behave more like humans are emerging progressively. As a result a greater understanding of these technologies is required either in software development life cycle or in security solutions for the applications.
深層機械学習やニューラルネットワークは、より強力なAIの基礎となるものであり、これを知識表現、NLP、推論エンジン、視覚、音声技術などの既存のAI技術に適用し、組み合わせることでAIを強化することができます。AIのインフラを開発・維持するためには、メモリ、適切なデータ、コンピューティングパワーなどの膨大なリソースが必要となります。同様に、AIソリューションは、さまざまな学習データセット、悪意のないコードやマルウェアコードなどの各種データセット、その他のアノマリーを通してトレーニングされます。これらの信頼性の高い正確なデータセットをすべて入手するには、コストと時間がかかり、すべての組織に余裕があるわけではありません。さらに、ハッカーはAIを導入してマルウェアをテストし、改良することで、既存のAIシステムを打ち負かすこともできます。実際には、AIに対抗できるマルウェアは、既存のAIセキュリティツールから訓練を受けて、AIを強化したソリューションを含む従来のサイバーセキュリティソリューションに侵入するための、より早熟な攻撃を作り出すことができるため、非常に破壊的なものとなります。
もう一つの注目すべきAIの課題は、適切なスキルがあれば、AIのアルゴリズムをクローンして再現することが容易であるということです。従来のセキュリティと比較して、ハードを再現することは簡単ではありませんが、必要な知識を持った人であれば、どんなソフトウェアにもアクセスすることができます
この点、サイバーセキュリティにAIを採用することは、AI技術の範囲がまだつかみにくい。採用されている様々なアプローチは、信頼性を保証するものではありません。AIソリューションは、学習、欠陥の利用、計画システム、ポイズニング攻撃、機械学習システムによる分類など、欠陥のある結果を生成するデバッグされた入力により、無防備になる可能性があります。したがって、深層学習技術のようなAI技術は、敵対者によって設計されたわずかなレベルの入力ノイズに騙される可能性があります。このようなダイナミクスは、AIが組織そのものよりも保護を必要とすることを示しています。AIには、バッファオーバーフローのような従来のサイバーセキュリティソリューションの脆弱性とは大きく異なる、より多くの脆弱性があります。