Система за изкуствен интелект, разработена от водещата изследователска лаборатория за изкуствен интелект DeepMind на Google, изглежда е надминала средния златен медалист в решаването на геометрични задачи в международно математическо състезание.

Системата, наречена AlphaGeometry2, е подобрена версия на системата AlphaGeometry, която DeepMind пусна през януари миналата година. В наскоро публикувано проучване изследователите от DeepMind, които стоят зад AlphaGeometry2, твърдят, че техният изкуствен интелект може да реши 84% от всички геометрични задачи през последните 25 години в Международната математическа олимпиада (ММО) - математическо състезание за ученици от средните училища.

Защо DeepMind се интересува от математическо състезание на гимназиално ниво?

Лабораторията смята, че ключът към по-способен изкуствен интелект може да се крие в откриването на нови начини за решаване на сложни геометрични задачи - по-конкретно задачи от Евклидовата геометрия.

Доказването на математически теореми или логическото обяснение защо дадена теорема (напр. Питагоровата теорема) е вярна, изисква както разсъждение, така и способност за избор от редица възможни стъпки към решение. Тези умения за решаване на проблеми могат да се окажат полезен компонент на бъдещите модели на изкуствен интелект с общо предназначение, ако DeepMind е прав.

Всъщност през изминалото лято DeepMind демонстрира система, която комбинира AlphaGeometry2 с AlphaProof, модел на ИИ за формално математическо разсъждение, за да реши четири от шестте задачи от ИМО 2024. В допълнение към задачите по геометрия подобни подходи могат да бъдат разширени и в други области на математиката и науката - например за подпомагане на сложни инженерни изчисления.

AlphaGeometry2 има няколко основни елемента, включително езиков модел от семейството Gemini на Google и „символен двигател“. Моделът Gemini помага на символния двигател, който използва математически правила за извеждане на решения на проблеми, да достигне до осъществими доказателства за дадена геометрична теорема.

Задачите от олимпиадата по геометрия се основават на диаграми, които трябва да се добавят, преди да бъдат решени, като точки, линии или кръгове. Моделът Gemini на AlphaGeometry2 предсказва кои конструкции могат да бъдат полезни за добавяне към диаграмата, на които двигателят се позовава, за да направи изводи.

По принцип моделът Gemini на AlphaGeometry2 предлага стъпки и конструкции на формален математически език на двигателя, който - следвайки определени правила - проверява тези стъпки за логическа последователност. Алгоритъмът за търсене позволява на AlphaGeometry2 да извършва множество паралелни търсения на решения и да съхранява евентуалните полезни открития в обща база от знания.

AlphaGeometry2 счита даден проблем за „решен“, когато стигне до доказателство, което съчетава предложенията на модела Gemini с известните принципи на символния двигател.

Поради сложността на превеждането на доказателствата в разбираем за изкуствения интелект формат липсват използваеми данни за обучение по геометрия. Затова DeepMind създаде свои собствени изкуствени данни за обучение на езиковия модел на AlphaGeometry2, като генерира над 300 милиона теореми и доказателства с различна сложност.

Екипът на DeepMind избра 45 задачи по геометрия от състезания на ММО през последните 25 години (от 2000 до 2024 г.), включително линейни уравнения и уравнения, които изискват преместване на геометрични обекти в равнина. След това те ги „преведоха“ в по-голям набор от 50 задачи. (По технически причини някои задачи трябваше да бъдат разделени на две.)

Според документа AlphaGeometry2 е решила 42 от 50-те задачи, изчиствайки средния резултат на златния медалист от 40.9 точки.

Разбира се, има някои ограничения - една техническа странност не позволява на AlphaGeometry2 да решава задачи с променлив брой точки, нелинейни уравнения и неравенства. И технически AlphaGeometry2 не е първата система с изкуствен интелект, която постига резултати на ниво златен медал по геометрия, въпреки че е първата, която го постига с набор от задачи с такъв размер.

AlphaGeometry2 се справи по-зле и с друг набор от по-трудни задачи на ММО. За допълнително предизвикателство екипът на DeepMind подбра задачи - общо 29, - които са били номинирани за изпитите на IMO от експерти по математика, но които все още не са се появявали в състезание. AlphaGeometry2 успя да реши само 20 от тях.

Все пак резултатите от изследването вероятно ще подхранят дебата за това дали системите за ИИ трябва да се изграждат на базата на манипулиране на символи - т.е. манипулиране на символи, които представят знания, с помощта на правила - или на привидно по-мозъчните невронни мрежи.

Снимка: Unsplash

Виж още: Светлинното платно може да позволи междузвездни пътувания с невиждани досега скорости