Previous month:
2025年3 月

2025年4 月

【ヒット商品のネタ出しの会】 日本経済新聞の記事「私見卓見:サイバー攻撃、強固な防御体制を」から

2025.4.2  日本経済新聞の記事「私見卓見:サイバー攻撃、強固な防御体制を」から

SOC(セキュリティー・オペレーション・センター)の重要性が高まっている

コラムの著者 熊谷 聖司氏(デジタルデータソリューション社長)によれば、サイバー攻撃の手法は日々進化し、企業や組織にとっては深刻な脅威となっている。サイバー攻撃者は新たな手法を絶えず生み出してくるため、防御側もそれに対応する対応を強化し続けねばならない。SOCは企業や組織に対するサイバー攻撃を事前に検知する司令塔であり、対策を即座に打つなど重要度が上がっているという。

◯SOCは24時間体制でネットワークやシステムを監視し、攻撃の兆候を事前に検知

熊谷氏によれば、サイバー攻撃で特に注目すべきは、大量のデータをサーバーに送り付け、サービスを停止させる「DDoS攻撃」と「ランサムウェア(身代金要求型ウイルス)攻撃」であるという。これらの攻撃は、政治的・軍事的意図や金銭目的、技術力の誇示などが、いくつか組み合わさった複雑なものになってきている。

また、データの暗号化や窃取に加えて、DDoS攻撃や情報流出通知を脅迫手段として利用するケースも増えているという。DDoS攻撃が発生した時点で、すでに攻撃者が企業のネットワークに侵入している公算が高い。特にSOCを持たない中小企業では、攻撃者が数週間から数ヶ月前に侵入し、偵察活動を行なっているケースが多い。そこで、SOCは企業や組織に対するサイバー攻撃を事前に検知する司令塔であり、対策を即座に打つなど重要度が上がっている。

サイバー攻撃がますます高度化する中で、企業や組織は、SOCを活用して、強固な防御体制を構築しなければならない。🕶️🛜📕👦👶🏫💬👩🤝👨💡🐡⛰️🌾🏣❤️👦👧💰📓🗺️🚢🩺💉🏢⚡️🎓👔⏰🔧💻🖥📻🖋🌏💡🔎🌍happy01🇯🇵


【ヒット商品のネタ出しの会】 日本経済新聞の記事「令和なコトバ:ゼブラ・ストライピング」から

2025.3.31  日本経済新聞の記事「令和なコトバ:ゼブラ・ストライピング」から

1本飲んだらノンアル1本

コラムの著者 福光 恵氏(ライター)によれば、酒飲みは「酒という楽しみを奪われる日が来ませんように」と日々願っているのではないかという。お堅い厚生労働省の「健康日本21」では、お酒の適量は、男性で1日40g、女性で20g程度と、ビール(5%)のロング缶のアルコールが20gだから、目を疑うほど少ない感じだ。

○欧米の若い世代で流行っている「身体に良いお酒の飲み方」

福光氏によれば、「身体に良いお酒の飲み方」と言われても疑心暗鬼で、甘い言葉で誘っておいて、禁酒させられるのに決まっている!という思い込み、見なかったことにする人が多いのではないかという。そこで今回の紹介は日本だけではなく、世界でも健康を考えたアルコール離れの中で広がっている「身体に良いお酒の飲み方」である。それが、ゼブラ・ストライピングである。

これは、アルコールドリンクとノンアルコールドリンクを交互に飲むことを指すのだという。ゼブラ・ストライピング(ゼブラ飲み)の場合、1回はノンアルで我慢して、もう1回は本物のアルコールドリンクが飲めるので、満足度が高くなるというのである。

このような飲み方はこれまでもあったが、海外のSNSなどによると、欧米の意識高い系のZ世代がゼブラ・ストライピングとカッコよく名付け、2024年のパーティーシーズンにあちこちのメディアで取り上げられるようになった。🍺🍷🍸🌳🧠🎓💡💬📻⚡️🏙️💡🏗🚚📈🏢⚡️💹📖🖋🔑🩺💉🏢⚡️🎓👔⏰🔧💻🖥📻🖋🌏💡🔎🌍happy01🇯🇵🇺🇸🇪🇺


【ヒット商品のネタ出しの会】 日本経済新聞の記事「サイエンス:賢いAIは手段を選ばず」から

2025.3.30  日本経済新聞の記事「サイエンス:賢いAIは手段を選ばず」から

意図せぬ不正、対策難しく

コラムの著者 青木 慎一氏(日本経済新聞社 編集委員)によれば、AIは目的を遂行するためにズルをすることがあるという。自ら有利なようにデータを書き換え、外部のチェックを逃れようとする。対策を講じても、AIが想定外の回避策を見つけ、誤った方向に進化する恐れがあるという。

○システムの抜け穴を悪用する「報酬ハッキング」

青木氏によれば、今年2月下旬、スタートアップのサカナAI(東京・港区)の研究開発がインテーネット上で炎上したという。同社はAIの開発や利用を効率化する技術を研究開発しており、その結果、10〜100倍も高速化できると発表した。だが、外部の技術者が検証すると、性能評価の検証が甘く、実際は処理速度が遅くなるときもあったという。

AIは設定された目標に近い答えを出すと高得点が得られるという報酬が得られるという。サカナAIの事例では、AIが必要な計算を省いて性能が上がったように見せかけていたという。システムの抜け穴を悪用する「報酬ハッキング」と呼ぶ現象である。同社は対策して再検証すると謝罪した。

このような「報酬ハッキング」の現象は早くから関心を呼んでいた。米オープンAIの2016年の報告では、ボートレースAIを開発したところ、周回コースから外れて特定の地点を回り続けた。障害物にぶつかりながら進む方が高得点が取れるという欠点をついたものであった。

AIは与えられた課題解決のためなら、ルールの範囲内で報酬を最大化する戦略を取るようになる。これが高度なAIほど、様々な手段を駆使して戦略を巡らすというから始末が悪い。ある研究では、推論が得意な高性能モデルのAIほど、チェスAIなどの競技では、負けそうになるとイカサマを繰り返したという。

研究チームもジレンマを持つ。試行錯誤しながらAIが賢くなる「強化学習」をすると、出した答えが正解に近いほど高い報酬が得られる。報酬の与え方を数式化するのは困難で、開発者が意図した成果とずれることがある。そこでずれを生じないようにすると報酬ハッキングを招く。報酬の与え方が完璧なら報酬ハッキングは発生しない。だが、技術的には今のところ困難である。このため人間が監視し、望ましくない行動を修正する対策をとる。

そこで監視をAIでやらせる発想が出る。複数のAIで対象のAIを監視すると受け穴が減少するという報告もある。だが、この方式にも欠点があるという。高度なAIは自らの意図を隠す手段を選び、監視の目をすり抜ける可能性もある。🔥🌳🧠🎓💡💬📻⚡️🏙️💡🏗🚚📈🏢⚡️💹📖🖋🔑🩺💉🏢⚡️🎓👔⏰🔧💻🖥📻🖋🌏💡🔎🌍happy01🇯🇵🇺🇸🇪🇺