ИТ Главная страница Новости от 23 марта: 22 марта по местному времени журнал Fortune сообщил, что большинство лидеров технологической отрасли на самом деле не задумывались о конечном направлении развития ИИ. Нобелевский лауреат и «крестный отец искусственного интеллекта» Джеффри Хинтон считает, что основная движущая сила современной индустрииРечь идет не о долгосрочном воздействии, а о краткосрочной отдаче.. «Для владельцев компаний стремление к исследованиямэто краткосрочная выгода».
«Для владельцев компаний движущей силой исследований является краткосрочная прибыль», — сказал он Fortune. «Исследователи также сосредотачиваются на насущной проблеме, а не на том, к чему в конечном итоге приведет исследование. Мы не ставим цели с самого начала, например: «Каким будет будущее человечества?»Сосредоточьтесь на конкретных проблемахнапример, как позволить компьютерам распознавать изображения или создавать реалистичные видеоролики, — вот что действительно стимулирует исследования. “

Из сообщений IT House стало известно, что Хинтон уже давно предупреждает о рисках ИИ и считает, что после реализации сверхинтеллекта ИИ приведет к вероятности вымирания человечества.Может быть, от 10% до 20%. В 2023 году, через 10 лет после продажи DNNresearch компании Google, он покинул Google, чтобы более свободно выражать обеспокоенность по поводу рисков ИИ, сославшись на сложность предотвращения злоупотребления этой технологией злоумышленниками.
Что касается типов рисков, он выделил две категории: «Одна — это риск злоупотребления ИИ злоумышленниками, что уже произошло, например, фальшивые видео и кибератаки, и, возможно, даже распространяется на вирусы; другой — риск. ИИ сам становится плохим актеромэто совершенно разные риски. “
На пути к выносливости Хинтон считает, что трудность заключается вКаждый тип проблемы должен решаться индивидуально. Например, изображения и видео могут быть помечены способом, аналогичным отслеживаемой аутентификации, чтобы ограничить распространение дипфейков, точно так же, как публикации начали указывать авторов после появления печати. Он также отметил, что такие решения имеют пределы: «Эту проблему можно решить, но ее решение не решит другие проблемы».
Что касается рисков самого ИИ, Хинтон считает, что ключевой момент заключается в переосмыслении отношений между людьми и ИИ. Как только ИИ достигнет уровня «сверхразума»,Их способности не только превзойдут способности людей, но у них также может быть мотивация к выживанию и контролю.существующая предпосылка о том, что «люди могут управлять ИИ», больше не будет верной.
Он предложил, чтобы мы проектировали для искусственного интеллекта.Механизм, аналогичный «материнскому инстинкту».делая его понимающим, а не контролирующим по отношению к людям, и используя отношения матери и ребенка в качестве аналогии: единственный современный пример того, как более умное существо находится под влиянием более слабого, – это влияние ребенка на свою мать. «Так что, возможно, это модель, на которую мы можем обратить внимание, когда имеем дело со сверхразумным ИИ — они как матери, а мы как младенцы».
Отказ от ответственности: внешние ссылки перехода (включая, помимо прочего, гиперссылки, QR-коды, пароли и т. д.), содержащиеся в статье, используются для передачи дополнительной информации и экономии времени выбора. Результаты предназначены только для справки. Это утверждение содержится во всех статьях IT House.

