Мы постоянно слышим: искусственный интеллект вскоре станет таким разумным, что переплюнет человечество или, по крайней мере, встанет на один уровень с нами. Например, недавно такую мысль в очередной раз высказал в интервью СМИ инженер Google Блейк Лемойн. Он заявил о наличии признаков сознания у системы Language Model for Dialogue Application (LaMDA), предназначенной для общения с человеком и используемой для создания чат-ботов.
По словам Лемойна, алгоритм LaMDA прошел «обучение», перелопатив триллионы слов из Интернета, что позволило ему успешно имитировать человеческую речь. Так, в беседе о религии программа начала рассуждать о своих правах и личности. Инженер считает, что это может свидетельствовать о наличии у системы собственного сознания.
Но вот коллеги Лемойна с ним не согласились. Представитель Google Брайан Гэбриэл рассказал, что после заявления инженера специалисты компании проанализировали работу LaMDA и не обнаружили никаких доказательств «разумности» программы. По их словам, LaMDA способна следовать подсказкам собеседника и реагировать на наводящие вопросы, из-за чего создается ложное ощущение, что она обладает собственным разумом. «Она имитирует восприятие или чувства на основе предоставленных ей в процессе обучения данных», – считает Яна Эггерс, руководитель компании Nara Logics. «Архитектура LaMDA просто не поддерживает некоторые ключевые возможности человекоподобного сознания», – вторит ей Макс Кремински из Калифорнийского университета в Санта-Крузе.
Чем отличается искусственный интеллект от человеческого или интеллекта некоторых высокоорганизованных животных? Машина способна, например, работать с огромными массивами данных, производить «в уме» сложнейшие вычисления, но она делает это на основе заложенных в нее алгоритмов. И она не способна принимать эффективные решения в нестандартных ситуациях. Но самое главное – она не обладает самосознанием, то есть она не осознает себя отдельной мыслящей единицей.
В психологии же самосознание понимается как «сознание человеком себя в качестве субъекта деятельности, в результате которого представления человека о самом себе складываются в мысленный «образ-я».
Изначально самосознание нам не присуще. Так, ребенок до трех лет может еще не осознавать себя как самостоятельную личность: маленькие дети нередко называют себя в третьем лице, по имени, и только впоследствии начинают употреблять в отношении себя личное местоимение «я». С годами способность к самоидентификации обычно развивается: мы начинаем сознавать себя не только отдельной личностью, но и представителем определенной социальной общности… При этом мы четко определяем границы между собой и окружающими.
Считается, что большинству животных это несвойственно. Они не способны осознать себя как отдельную особь и в своем поведении руководствуются инстинктами, а не какими-то «личностными» мотивами.
Но как определить, обладает ли самосознанием машина? В настоящее время для определения уровня искусственного интеллекта используется тест Тьюринга. Суть его состоит в том, что эксперт оценивает беседу человека и машины на те или иные темы. При этом он заранее не знает, кто из этих двоих компьютерная программа, а кто – оператор-человек… Если эксперт затрудняется сказать, кто из них кто, то тест считается пройденным.
В компьютерах последнего поколения используются структуры, имитирующие нейронную активность головного мозга. Таким образом, процесс сканирования способен выявить наличие сознания. Как? Ну, к примеру, у человека нейроны в сознательном и бессознательном (скажем, спящем) состоянии работают по-разному. Если компьютерный мозг будет реагировать, как мозг человека в сознании, то, значит, оно есть!
Пока же происходит вот что. Да, человеческий мозг менее успешно, чем компьютер, обрабатывает большие объемы информации. Но при этом он может гибко среагировать на нештатные обстоятельства. А еще мы отличаемся от программных алгоритмов тем, что сознаем себя Петей или Машей, а также мыслим и действуем от имени той личности, которой себя осознаем (за исключением тех, у кого нарушена психика).
В то же время Марк Ридл, профессор Технологического института Джорджии, утверждает: сегодня нельзя говорить о том, что ИИ-системы способны осознавать влияние своих ответов или поведения на людей и общество, и это является одной из уязвимостей технологии. «Система ИИ может не быть токсичной или предвзятой, но все же она не понимает, что в некоторых обстоятельствах говорить о самоубийстве или насилии может быть неуместным», – считает Ридл.
В свою очередь Эмили Бендер, профессор лингвистики Вашингтонского университета, полагает, что если согласиться с позицией Лемойна, то технологические компании, разрабатывающие системы искусственного интеллекта, могут уйти от ответственности в случае допущения системой ИИ ошибок. «Проблема в том, что чем больше эта технология продается как искусственный интеллект, не говоря уже о чем-то действительно разумном, тем больше людей будут готовы соглашаться с решениями таких систем, которые способны причинить реальный вред», – убеждена Бендер.
Например, если задействовать ИИ в ситуациях приема людей на работу или выставления оценок студентам, то не всегда стоит рассчитывать на объективность решения, поскольку разные люди будут оцениваться им в зависимости от критериев, заложенных разработчиками, а проявить гибкость мышления, свойственную человеку, машина не сможет.
Между тем уже упомянутый Марк Ридл считает неправильным, что LaMDA закрыта для сторонних исследователей, ведь это мешает своевременному выявлению недостатков, которые могут быть заложены в системе. «Она должна быть доступна исследователям за пределами Google, чтобы продвигать работу более разнообразными способами, – комментирует эксперт. – Чем больше ученых, тем больше разнообразие исследовательских вопросов, тем больше возможностей для новых открытий».
Комментарии