Нобелівський лауреат назвав терміни кінця людства: кінець близько

22 квітня 2026, 18:30
Фізик заявив про можливу загрозу для людства в найближчі десятиліття. Зростання ядерного ризику та розвиток технологій підвищують ймовірність катастрофи.
Відомий фізик заявив про ядерну загрозу та кінець світу
Відомий фізик заявив про ядерну загрозу та кінець світу / Колаж Главред, фото: ua.depositphotos.com

Ви дізнаєтеся:

  • Чому вчений вважає загрозу ядерної війни реальною
  • Як штучний інтелект може вплинути на долю світу
  • Чому прогноз щодо майбутнього людства виявився лякаючим

Відомий фізик-теоретик і лауреат Нобелівської премії Девід Гросс виступив із тривожним прогнозом щодо майбутнього людства. Він вказав на зростаючі ризики глобальної катастрофи, які, на його думку, вже неможливо ігнорувати.

За словами вченого, ймовірність ядерної війни та стрімкий розвиток технологій можуть призвести до драматичних наслідків. Фахівець вважає, що ці загрози здатні вплинути на долю людства вже в найближчі десятиліття. Про це пише Lad Bible.

відео дня

Ядерна загроза знову наростає

Гросс, який отримав Нобелівську премію з фізики у 2004 році у складі вчених, що відкрили явище, за якого сила взаємодії між кварками зменшується у міру їх зближення, зазначив, що загроза ядерного конфлікту не зникла навіть після закінчення холодної війни. Навпаки, за його оцінкою, щорічна ймовірність такого сценарію може досягати двох відсотків, тобто приблизно один шанс із п'ятдесяти щороку.

Використовуючи розрахунки, схожі на ті, що застосовуються для оцінки періоду напіврозпаду, вчений дійшов висновку, що за таких ризиків очікувана "тривалість безпеки" людства може становити близько 35 років. Це означає, що значна частина нинішнього покоління може не дожити до середини століття.

Світ стає менш стабільним

За словами фізика, ситуація за останні десятиліття тільки погіршилася. Він вказав на зростання геополітичної напруженості та збільшення кількості країн, що володіють ядерною зброєю. Сьогодні таких держав уже дев'ять, і з кожним новим учасником глобальна система безпеки стає все більш нестабільною.

Девід Гросс отримав Нобелівську премію з фізики у 2004 році
Девід Гросс отримав Нобелівську премію з фізики у 2004 році / Фото: Wikipedia

Додатковим фактором ризику вчений назвав ослаблення міжнародних договорів. За останнє десятиліття, за його словами, не було укладено жодної значущої угоди щодо контролю над озброєнням.

Небезпека штучного інтелекту

Окрему увагу Гросс приділив розвитку штучного інтелекту. Фізик вважає, що в майбутньому ШІ може отримати контроль над критично важливими рішеннями, включаючи військові, оскільки такі системи здатні діяти швидше за людину.

При цьому вчений підкреслив, що сучасні технології вже зараз можуть допускати помилки і видавати неточні результати, що робить їх використання у стратегічних питаннях потенційно небезпечним.

Раніше Главред писав про те, що експерт назвав професії, які залишаться поза владою ШІ. Нідерландський економіст Йона ван Лоенен поділився своїм поглядом на вплив штучного інтелекту на ринок праці.

Також повідомлялося про те, що Білл Гейтс назвав професії, які не замінить ШІ. Співзасновник Microsoft і мільярдер зробив гучну заяву: незважаючи на розвиток технологій, є щонайменше три напрямки, які збережуть свою актуальність.

Вам може бути цікаво:

Про джерело: LADbible Group Limited

LADbible Group — британський цифровий видавець. Медіабренди LADbible Group мають аудиторію, що наближається до мільярда, з 262 мільйонами підписників у всьому світі на основних платформах соціальних мереж.

Компанія публікує оригінальні та придбані матеріали, включаючи редакційні, відео- та документальні матеріали, деякі з яких транслюються в прямому ефірі. Їхній зміст включає розваги та інтерв'ю зі знаменитостями, а також новини та поточні події, пише Вікіпедія.

Якщо ви помітили помилку, виділіть необхідний текст і натисніть Ctrl + Enter, щоб повідомити про це редакції.

Наші стандарти: Редакційна політика сайту Главред

Новини партнерів
Реклама

Останні новини

Реклама
Реклама
Реклама
Ми використовуемо cookies
Прийняти