LLM은 카오스를 제거할 수 없다
LLM은 아무리 정밀해도 팻테일 분포의 극단값(꼬리)을 정확히 예측하지 못하며, 이는 환각이나 치명적 오류로 나타날 수 있다.
이러한 극단적 사건은 통계적 예측보다 실제로 더 큰 영향을 미치며, 시스템이 복잡하게 연결될수록 그 파괴력은 비선형적으로 급증한다.
이 조합은 블랙스완에 대한 노출과 취약도를 높이고, AI 중심의 과최적화는 그 노출을 확대할 위험이 있다.
따라서 AI를 활용하기에 앞서, 자연선택처럼 시간을 거치며 충격에 더 강해지는 ‘안티프래질’ 메커니즘을 시스템에 구축하는 것이 대전제가 되어야 한다.