Това ли е причината за уволнението на Сам Алтман? Открит е пробив в AI, потенциално застрашаващ човечеството
Преди уволнението на Сам Алтман от поста на главен изпълнителен директор OpenAI, продължило едва четири дни, няколко души от изследователския екип на компанията са написали писмо до борда на директорите, в което са предупредили за значително откритие, свързано с изкуствения интелект, което според тях може да застраши човечеството, съобщи Ройтерс, позовавайки се на двама източника, запознати с въпроса.
КЛЮЧОВИ ФАКТИ
- Писмото и разработването на алгоритъма за изкуствен интелект са били ключови моменти преди отстраняването на Алтман.
- Писмото е представлявало само една от многото причини за уволнението на Алтман, според източниците, които са изтъкнали още опасения относно комерсиализиране на разработките, преди да се разберат произтичащите от тях последствия.
- Ройтерс не е успяла да получи достъп до писмото, а служителите, които са го написали, не са отговорили на исканията за коментар на агенцията.
- OpenAI е признала в съобщение до служителите си за проект, наречен Q* , както и за писмо, изпратено до борда преди събитията, свързани с уволнението на Алтман, е казал един от източниците.
- В сряда OpenAI е успя да убеди Сам Алтман да се върне като главен изпълнителен директор на компанията и да сформира нов борд на директорите
ПРОБИВ В ТЪРСЕНЕТО
Някои от служителите на компанията смятат, че Q* (произнася се “Кю-стар”) може да бъде пробив в търсенето на така наречения общ изкуствен интелект (AGI), според един от източниците. OpenAI определя общия изкуствен интелект като автономни системи, които превъзхождат хората в повечето важни икономически дейности.
Като се имат предвид огромните изчислителни възможности, новият модел успя да реши определени математически проблеми, е посочил служител на компанията. Въпреки че решава математически задачи едва на ниво начален етап на образование, разрешаването им обнадеждава разработчиците за бъдещия успех на Q*.
Изследователите смятат математиката за граница на генеративното развитие на изкуствения интелект. Понастоящем генеративният изкуствен интелект успява да извършва езиков превод чрез статистически прогнози на следващата дума и отговорите на един и същи въпрос могат да варират значително. Развитието на възможността да се решават математически задачи, в които има само един правилен отговор, предполага, че изкуствения интелект ще има по-големи способности за разсъждение, наподобяващи човешкия интелект. Това може да се приложи например към нови научни изследвания, смятат изследователите в сферата.
ЗАПЛАХАТА
За разлика от калкулатора, който може да решава ограничен брой операции, AGI може да обобщава, учи и разбира.
В писмото си до борда изследователите отбелязаха мощта и потенциалната опасност на AI, казаха източниците, без да уточняват точните опасения за безопасността, отбелязани в писмото. Сред компютърните учени отдавна се дискутира опасността, която крият високоинтелигентните машини, например ако решат, че унищожаването на човечеството е в техен интерес.
Изследователите също така са отбелязали работата на екип от „AI учен“, чието съществуване е потвърдено от множество източници. Групата, сформирана чрез комбиниране на по-ранни екипи „Code Gen“ и „Math Gen“, проучваше как да оптимизира съществуващите AI модели, за да подобри техните разсъждения и в крайна сметка да извърши научна работа.
Алтман ръководи усилията да превърне ChatGPT в едно от най-бързо развиващите се софтуерни приложения в историята и привлече инвестиции – и компютърни ресурси – необходими от Microsoft, за да се доближи до AGI.
В допълнение към обявяването на набор от нови инструменти в демонстрация този месец, Алтман загатна на среща на върха на световните лидери в Сан Франциско, че смята, че се очертава голям напредък.