Вот уже и открытые письма дебилы-разработчики ИИ пишут ко граду и миру одним предложением! Где их интеллект? Что, длиннее написать нельзя?
Вот клевый пример, текст письма опубликован на сайте Центра безопасности ИИ (Center for AI Safety или CAIS): «Снижение риска вымирания из-за ИИ должно стать глобальным приоритетом наряду с другими социальными рисками, такими как пандемии и ядерная война». (Список подписантов постоянно пополняется: сейчас там порядка 350 имён, трое ученых уровня лауреатов Нобелевской премии)