コラム

【ヒット商品のネタ出しの会】 日本経済新聞の記事「私見卓見:サイバー攻撃、強固な防御体制を」から

2025.4.2  日本経済新聞の記事「私見卓見:サイバー攻撃、強固な防御体制を」から

SOC(セキュリティー・オペレーション・センター)の重要性が高まっている

コラムの著者 熊谷 聖司氏(デジタルデータソリューション社長)によれば、サイバー攻撃の手法は日々進化し、企業や組織にとっては深刻な脅威となっている。サイバー攻撃者は新たな手法を絶えず生み出してくるため、防御側もそれに対応する対応を強化し続けねばならない。SOCは企業や組織に対するサイバー攻撃を事前に検知する司令塔であり、対策を即座に打つなど重要度が上がっているという。

◯SOCは24時間体制でネットワークやシステムを監視し、攻撃の兆候を事前に検知

熊谷氏によれば、サイバー攻撃で特に注目すべきは、大量のデータをサーバーに送り付け、サービスを停止させる「DDoS攻撃」と「ランサムウェア(身代金要求型ウイルス)攻撃」であるという。これらの攻撃は、政治的・軍事的意図や金銭目的、技術力の誇示などが、いくつか組み合わさった複雑なものになってきている。

また、データの暗号化や窃取に加えて、DDoS攻撃や情報流出通知を脅迫手段として利用するケースも増えているという。DDoS攻撃が発生した時点で、すでに攻撃者が企業のネットワークに侵入している公算が高い。特にSOCを持たない中小企業では、攻撃者が数週間から数ヶ月前に侵入し、偵察活動を行なっているケースが多い。そこで、SOCは企業や組織に対するサイバー攻撃を事前に検知する司令塔であり、対策を即座に打つなど重要度が上がっている。

サイバー攻撃がますます高度化する中で、企業や組織は、SOCを活用して、強固な防御体制を構築しなければならない。🕶️🛜📕👦👶🏫💬👩🤝👨💡🐡⛰️🌾🏣❤️👦👧💰📓🗺️🚢🩺💉🏢⚡️🎓👔⏰🔧💻🖥📻🖋🌏💡🔎🌍happy01🇯🇵


【ヒット商品のネタ出しの会】 日本経済新聞の記事「令和なコトバ:ゼブラ・ストライピング」から

2025.3.31  日本経済新聞の記事「令和なコトバ:ゼブラ・ストライピング」から

1本飲んだらノンアル1本

コラムの著者 福光 恵氏(ライター)によれば、酒飲みは「酒という楽しみを奪われる日が来ませんように」と日々願っているのではないかという。お堅い厚生労働省の「健康日本21」では、お酒の適量は、男性で1日40g、女性で20g程度と、ビール(5%)のロング缶のアルコールが20gだから、目を疑うほど少ない感じだ。

○欧米の若い世代で流行っている「身体に良いお酒の飲み方」

福光氏によれば、「身体に良いお酒の飲み方」と言われても疑心暗鬼で、甘い言葉で誘っておいて、禁酒させられるのに決まっている!という思い込み、見なかったことにする人が多いのではないかという。そこで今回の紹介は日本だけではなく、世界でも健康を考えたアルコール離れの中で広がっている「身体に良いお酒の飲み方」である。それが、ゼブラ・ストライピングである。

これは、アルコールドリンクとノンアルコールドリンクを交互に飲むことを指すのだという。ゼブラ・ストライピング(ゼブラ飲み)の場合、1回はノンアルで我慢して、もう1回は本物のアルコールドリンクが飲めるので、満足度が高くなるというのである。

このような飲み方はこれまでもあったが、海外のSNSなどによると、欧米の意識高い系のZ世代がゼブラ・ストライピングとカッコよく名付け、2024年のパーティーシーズンにあちこちのメディアで取り上げられるようになった。🍺🍷🍸🌳🧠🎓💡💬📻⚡️🏙️💡🏗🚚📈🏢⚡️💹📖🖋🔑🩺💉🏢⚡️🎓👔⏰🔧💻🖥📻🖋🌏💡🔎🌍happy01🇯🇵🇺🇸🇪🇺


【ヒット商品のネタ出しの会】 日本経済新聞の記事「サイエンス:賢いAIは手段を選ばず」から

2025.3.30  日本経済新聞の記事「サイエンス:賢いAIは手段を選ばず」から

意図せぬ不正、対策難しく

コラムの著者 青木 慎一氏(日本経済新聞社 編集委員)によれば、AIは目的を遂行するためにズルをすることがあるという。自ら有利なようにデータを書き換え、外部のチェックを逃れようとする。対策を講じても、AIが想定外の回避策を見つけ、誤った方向に進化する恐れがあるという。

○システムの抜け穴を悪用する「報酬ハッキング」

青木氏によれば、今年2月下旬、スタートアップのサカナAI(東京・港区)の研究開発がインテーネット上で炎上したという。同社はAIの開発や利用を効率化する技術を研究開発しており、その結果、10〜100倍も高速化できると発表した。だが、外部の技術者が検証すると、性能評価の検証が甘く、実際は処理速度が遅くなるときもあったという。

AIは設定された目標に近い答えを出すと高得点が得られるという報酬が得られるという。サカナAIの事例では、AIが必要な計算を省いて性能が上がったように見せかけていたという。システムの抜け穴を悪用する「報酬ハッキング」と呼ぶ現象である。同社は対策して再検証すると謝罪した。

このような「報酬ハッキング」の現象は早くから関心を呼んでいた。米オープンAIの2016年の報告では、ボートレースAIを開発したところ、周回コースから外れて特定の地点を回り続けた。障害物にぶつかりながら進む方が高得点が取れるという欠点をついたものであった。

AIは与えられた課題解決のためなら、ルールの範囲内で報酬を最大化する戦略を取るようになる。これが高度なAIほど、様々な手段を駆使して戦略を巡らすというから始末が悪い。ある研究では、推論が得意な高性能モデルのAIほど、チェスAIなどの競技では、負けそうになるとイカサマを繰り返したという。

研究チームもジレンマを持つ。試行錯誤しながらAIが賢くなる「強化学習」をすると、出した答えが正解に近いほど高い報酬が得られる。報酬の与え方を数式化するのは困難で、開発者が意図した成果とずれることがある。そこでずれを生じないようにすると報酬ハッキングを招く。報酬の与え方が完璧なら報酬ハッキングは発生しない。だが、技術的には今のところ困難である。このため人間が監視し、望ましくない行動を修正する対策をとる。

そこで監視をAIでやらせる発想が出る。複数のAIで対象のAIを監視すると受け穴が減少するという報告もある。だが、この方式にも欠点があるという。高度なAIは自らの意図を隠す手段を選び、監視の目をすり抜ける可能性もある。🔥🌳🧠🎓💡💬📻⚡️🏙️💡🏗🚚📈🏢⚡️💹📖🖋🔑🩺💉🏢⚡️🎓👔⏰🔧💻🖥📻🖋🌏💡🔎🌍happy01🇯🇵🇺🇸🇪🇺


【ヒット商品のネタ出しの会】 日本経済新聞の記事「FINANCIAL_TIMES:AIが奪う新人の成長機会」から

2025.3.31  日本経済新聞の記事「FINANCIAL_TIMES:AIが奪う新人の成長機会」から

先輩後輩の仕事の絆はスキルや創意工夫の伝承の基礎

コラムの著者 サラ・オコナー氏(FINANCIAL TIMES エンプロイメント・コラムニスト)によると、自分の最初の仕事は、先輩デスクから仕事を通じて学んだスキルで、この仕事の絆が、これまでの人類のスキルや創意工夫を伝承してきた基礎であったという。AIの時代にそれはどう変わるのか。

○AI時代に仕事の絆は?

オコナー氏は、AI以外にもロボットの企業導入により、様々な展開シナリオが考えられるという。楽観的な考えでは、企業は、次世代の上級プロフェッショナルを育てる手法を新たに見出す可能性があるという。AIを賢く利用して、若手の成長を促進するのと同時に、若手が知識を習得し、人とつながる機会を奪わない方法である。

ところが、悲観的なシナリオで最悪なのは、企業が生産性向上を急ぐあまり、若手の労働の収益化が難しいとして採用を見送ることである。この最悪シナリオの場合、自動化されにくい上級職に就くにはどうすればよいのか。

あるベテラン弁護士は、産業革命前夜まで存在した徒弟制度を復活することだと予測している。経済的余裕のある家庭が、お金を払って子どもを熟練者の徒弟に出す制度である。これが社会階層間の流動性に及ぼす影響は多大である。

生成AIのホワイトカラーの仕事への導入はまだ初期の段階である。今後の予想は未知であろう。オコナー氏はその未知の状況であえて、企業が大きな変革を起こすAIの力を使ってホワイトカラーの仕事をどうするかの判断を下すことになるという。その決断の判断軸は、社員がどのように出世の階段を上がるか、あるいは下がるかになるにちがいないと予想している。🎓🏢🔥🌳🎓💡💬📻⚡️🏙️💡🏗🚚📈🏢⚡️💹📖🖋🔑🩺💉🏢⚡️🎓👔⏰🔧💻🖥📻🖋🌏💡🔎🌍happy01🇯🇵🇺🇸


【ヒット商品のネタ出しの会】 日本経済新聞の記事「デモクライシス、#SNSが政治変えた件:ファクトチェックに限界、インタビューへ編」から

2025.3.28  日本経済新聞の記事「デモクライシス、#SNSが政治変えた件:ファクトチェックに限界、インタビューへ編」から

SNSが選挙や政治に大きな影響を与えた

欧州の調査機関ベリングキャットは、オープンソース・インテリジェンス(OSINT)の手法で、SNSなどの偽情報や誤情報の検証を続けているという。コラムのエリオット・ヒギンズ氏(調査機関ベリングキャット創設者)に選挙や政治に大きな影響を与えるようになったSNSについてどう向かい合うべきかについてインタビューしている。

○メディアや政治家がいくつもの分断された言説で自分を信じる人々だけに仕えている時代

ヒギンズ氏によれば、ドナルド・トランプ米大統領やイーロン・マスク氏はまさに分断された言説を信じている人々に奉仕する動きであり、偏った情報や意見に基づいて政策判断しているという。これは民主主義ではない。

SNSの基盤となっているアルゴリズムが問題であるとヒギンズ氏は指摘している。アルゴリズムが利用者の見たい情報やコンテンツを推奨するようになっていることから、情報が正しいかどうか以前に判断できなくしてしまう危険性があり、それが民主主義に対する脅威になるという。

それでは偽情報であるのに気付いてもらうにはどうすれば良いか。誤情報を真実だと信じている人に、嘘だと認めさせるのは非常に難しいとヒギンズ氏は語る。このような偽情報のフィルターバブルから抜け出るように願って待つよりも、そのコミュニティに入って言説を作ることが対策の1つだとヒギンズ氏は提言している。さらに、正しい言説を瞬時に効率良く作っていくことも重要だという。また、ファクトチェックに頼りすぎでもよくない。偽情報が出されてから24時間を超えると効果が薄れ、手遅れになるからである。

根本的な対策は教育だという。例えば、TikTokの動画がどのように作られ、ファクトチェックができるのかといったことを学び、若いうちから批判的思考を養うことで、より参加型の民主主義になるのではないかと、ヒギンズ氏は示唆している。🧠🌳🎓💡💬📻⚡️🏙️💡🏗🚚📈🏢⚡️💹📖🖋🔑🩺💉🏢⚡️🎓👔⏰🔧💻🖥📻🖋🌏💡🔎🌍happy01🇯🇵🇪🇺