AI 安全性(AI Safety)
AI 安全性(AI Safety)は、AI システムが意図しない有害な結果を引き起こさないようにするための研究・設計・評価の総体。エージェント型 AI の普及に伴い、2026 年は「sabotage 研究」や OWASP Agentic Top 10 など実装レベルの安全対策が急速に整備されている。
※ 自動生成 stub、要補完
AI 安全性(AI Safety)は、AI システムが意図しない有害な結果を引き起こさないようにするための研究・設計・評価の総体。エージェント型 AI の普及に伴い、2026 年は「sabotage 研究」や OWASP Agentic Top 10 など実装レベルの安全対策が急速に整備されている。
※ 自動生成 stub、要補完