Отбелязвайки поредния голям пробив в областта на изкуствения интелект, компютърна система, разработена от учени на Google във Великобритания, победи топ играч на Го. Именно древната китайска игра, съчетаваща умелото използване на стратегия и интуиция, от десетилетия бе предмет на особен интерес от страна на работещите в областта на изкуствения интелект.
През годините машините постепенно побеждаваха хората в повечето игри, които измерват човешкия интелект, включително и състезания по Скрабъл и дори ТВ шоуто Jeopardy!, но конкретно при Го най-добрите познавачи на древната игра успяваха да се наложат и над най-способните компютърни системи. Нещо повече, експертите предричаха, че ще измине поне още едно десетилетие преди машина да може да победи човек в тази надпревара, която често е определяна за по-комплексна от шаха. Но Google направи точно това.
Учените от програмата DeepMind, която интернет гигантът придоби през 2014 г., са създателите на AlphaGo - AI платформа, която през октомври 2015 г. е спечелила категорична победа с 5-0 срещу шампиона Фан Хуй. Преди това, AlphaGo вече имаше 99,8 процента успеваемост в игрите срещу други програми за Го. DeepMind постигат успеха благодарение на хитроумната техника за „дълбоко обучение“. Екипът разчита на база данни с около 30 млн. хода, събрани от най-добрите играчи на Го, за да научи AlphaGo да играе напълно самостоятелно. Това е едва първата стъпка, тъй като тя може само да научи машината да е толкова добра, колкото са най-добрите играчи. За да бъде дори по-добра от това, учените я изправят да се състезава срещу самата себе си. Това им позволява да запишат допълнителни ходове, които залагат в нов ИИ играч.
"Машината продължава да се развива и все още не сме достигнали тавана на нейното представяне", казва основателят на DeepMind Демис Хасабис.
Изкуствен интелект: край или ново начало?