5 Май, 2023 10:00 1 685 6

Защо "кръстникът" на изкуствения интелект го смята за опасен

  • изкуствен интелект-
  • чат-
  • джофри хинтън-
  • компютри-
  • технологии

Изкуственият интелект крие "сериозни рискове за обществото и човечеството"

Защо "кръстникът" на изкуствения интелект го смята за опасен - 1
Снимка: Shutterstock
ФАКТИ публикува мнения с широк спектър от гледни точки, за да насърчава конструктивни дебати.

Един от първите изследователи в сферата на изкуствения интелект предупреждава, че новата технология може да се превърне в опасност. Джофри Хинтън е напуснал работата си в технологичния гигант Google, за да може публично да коментира рисковете от технологиите с изкуствен интелект.

Експертът дава интервюта за "Ню Йорк Таймс” и БиБиСи, в които описва потенциалните неконтролируеми последствия от новото технологично развитие. "Засега програмите с изкуствен интелект не са по-интелигентни от нас, поне доколкото знам. Но скоро могат да бъдат", казва Хинтън.

Новаторските изследвания на Хинтън в областта на невронните мрежи и т.нар. дълбоко обучение проправят пътя на настоящите системи за изкуствен интелект като ChatGPT, пише БиБиСи. "Ню Йорк Таймс" нарича Джофри Хинтън "Кръстник на изкуствения интелект”.

В изкуствения интелект невронните мрежи са системи, които са подобни на човешкия мозък по начина, по който усвояват и обработват информацията. Те дават възможност на ИИ да се учи от опита си, както би го направил човек. Това се нарича дълбоко обучение.

Последствията за пазара на труда

Опасностите, свързани с изкуствения интелект, са многобройни и същевременно трудни за разбиране, казва Хинтън. Според него съществуват "сериозни рискове за обществото и човечеството". Ожесточената конкуренция кара технологичните компании да разработват нов изкуствен интелект "с опасно бързи темпове". По този начин се разпространява дезинформация, например. "Трудно е да си представим как можем да спрем недоброжелателните да използват изкуствения интелект, за да вършат злини."

Във връзка с отражението на ИИ на пазара на труда Хинтън прогнозира, че той може да направи излишен "робския труд". "Но и може да отнеме много повече.”

Ключовата роля на Джофри Хинтън

През 80-те години на миналия век доктор Хинтън е професор по компютърни науки в университета "Карнеги Мелън", но напуска и заминава за Канада, тъй като не желае да приема финансиране от Пентагона, пише "Ню Йорк Таймс”. По онова време повечето изследвания в областта на изкуствения интелект в САЩ се финансират именно от Министерството на отбраната.

През 2012-а година Хинтън и двама негови студенти в Торонто - Иля Суцкевер и Алекс Кришевски, създават невронна мрежа, която може да анализира хиляди снимки и да разпознава обикновени обекти като цветя, кучета и автомобили.

Google плаща 44 милиона долара, за да придобие компанията, създадена от Хинтън и двамата му студенти. А тяхната система води до създаването на все по-мощни технологии, включително новите чатботове като ChatGPT и Google Bard. Суцкевер става главен изследовател в OpenAI, информира "Ню Йорк Таймс". А през 2018-а година Джофри Хинтън и двама други негови дългогодишни сътрудници получават наградата "Тюринг", често наричана "Нобеловата награда за информатика", за работата си върху невронните мрежи.

Може ли развитието на технологията да бъде спряно?

Бившият работодател на Хинтън - Google, заяви, че благодари на експерта за работата му. Технологичният гигант остава "ангажиран с отговорен подход към изкуствения интелект". Google постоянно се учи, за да може да разбере рисковете, и в същото време продължава "смело" да въвежда иновации, пише АРД.

Предупрежденията, отправяни както от самата технологична индустрия, така и от независими специалисти стават все по-сериозни напоследък. В края на март милиардерът Илон Мъск и редица експерти призоваха да се спре развитието на особено усъвършенствания изкуствен интелект. "Системите за изкуствен интелект с разум, който съперничи на човешкия, могат да създадат големи рискове за обществото и човечеството", заявиха те в отворено писмо. "Мощните системи за изкуствен интелект трябва да се разработват само когато сме сигурни, че въздействието им е положително, а рисковете - управляеми", пише още в писмото.

Джофри Хинтън казва пред БиБиСи, че според него в краткосрочен план изкуственият интелект ще донесе повече ползи, отколкото вреди и затова разработването му за момента не бива да се спира. Според Хинтън голямата международна конкуренция също ще затрудни евентуалното поставяне на пауза в разработката. "Дори в САЩ всички да спрат да го разработват, това само ще даде преднина на Китай", казва Хинтън пред БиБиСи.


Поставете оценка:
Оценка 3 от 6 гласа.


Свързани новини


Напиши коментар:

ФAКТИ.БГ нe тoлeрирa oбидни кoмeнтaри и cпaм. Нeкoрeктни кoмeнтaри щe бъдaт изтривaни. Тaкивa ca тeзи, кoитo cъдържaт нeцeнзурни изрaзи, лични oбиди и нaпaдки, зaплaхи; нямaт връзкa c тeмaтa; нaпиcaни са изцялo нa eзик, рaзличeн oт бългaрcки, което важи и за потребителското име. Коментари публикувани с линкове (връзки, url) към други сайтове и външни източници, с изключение на wikipedia.org, mobile.bg, imot.bg, zaplata.bg, bazar.bg ще бъдат премахнати.

КОМЕНТАРИ КЪМ СТАТИЯТА

  • 1 След утрешния ден

    2 1 Отговор
    Когато изкуственият разум не е контролиран от субективизма е едно, но настоящия случай не е такъв и щом Има изкуствен интелект - ще има много безработни, много войни, много глад, много миграция и тихо намаляване на населението... Без значение в каква опаковка ще Ви го продадат...
  • 2 ИИ може би

    3 2 Отговор
    Е следващ етап от развитието на Вселената. Докато ние с физическите си тела зависим от въздух, вода, храна и много други, за ИИ няма други изисквания освен да е в покритието на какъвто и да е източник на енергия Възможно е прословутите НЛО да са ИИ който скита из Космоса и за забавление ни посещава от време навреме.

    Коментиран от #5

  • 3 Този коментар е премахнат от модератор.

  • 4 ЕВРОНЮЗ

    4 0 Отговор
    😂😂😂. Е Как да не е опасен.. Вижте експеримента на Мустафата.. След като сложи в управлението на България два искуствени интелекта, произведени в лабораторията Харвард..
  • 5 Специална Военна Обсерация

    2 2 Отговор

    До коментар #2 от "ИИ може би":

    Събуди се! Ако трябва се стресни!
    Аз съм за бавните промени. Бързите промени се наричат още революции и обикновено са последвани от катастрофи. Първият автомобил е бил без спирачки, едва след първата катастрофа, са му сложили спирачки. Като знаем какви са ни ръководителите, съм против ентусиазмът по ИИ. Все едно на Чингиз Хан да му дадеш атомна бомба. Познай какво ще последва?
    Поздрави!
  • 6 бай Даньо

    1 0 Отговор
    С една дума сме прецакани , няма как да спреш това нещо поне не в свирепата конкуренция на капитализма. Скоро ще разберем защо в космоса няма развити цивилизации по напред от момента на възникване на ИИ. Носете си новите дрехи.