04/02/2023

ChatGPT: najnowsze informacje o technologii

Najnowsze informacje o ChatGPT

ChatGPT – przyszłość w biznesie

W coraz bardziej cyfrowym świecie technologia “conversational AI” stała się ważnym narzędziem do wzmocnienia komunikacji i poprawy doświadczenia użytkownika lub klienta. Ostatnio ChatGPT, duży model językowy opracowany przez OpenAI, jest wiodącym przykładem tej technologii.

Wykorzystuje on najnowsze osiągnięcia w zakresie generatywnej sztucznej inteligencji, aby zapewnić rozmowy podobne do ludzkich w szerokim zakresie tematów. Aby pomóc liderom technologicznym zrozumieć tę technologię i jej potencjalne przypadki użycia, globalna firma badawcza i doradcza Info-Tech Research Group opublikowała swój najnowszy pokład doradczy, ChatGPT: The Present and Future of Generative AI for Enterprises.

ChatGPT to generatywny chatbot AI zaprojektowany do odpowiadania na pytania, co nie jest nową koncepcją. ChatGPT stanowi jednak przełomowy moment w historii generatywnej AI, ponieważ potrafi prowadzić rozmowy podobne do ludzkich na różne tematy, w tym pisać poezję, debugować kod, a nawet pomagać w rozwiązywaniu problemów z oprogramowaniem i sprzętem.

“OpenAI wytrenowało swój model językowy ChatGPT za pomocą uczenia nadzorowanego i uczenia wzmacniającego” – mówi Jeremy Roberts, dyrektor ds. badań w Info-Tech Research Group. “Oznacza to, że model językowy był wielokrotnie szkolony przez człowieka, który demonstruje pożądane zachowanie, a następnie nadzoruje dane wyjściowe wytwarzane przez model, wzmacniając uczenie poprzez klasyfikację danych wyjściowych na podstawie ich jakości”.

W przeciwieństwie do poprzednich iteracji modelu GPT, ChatGPT jest specjalnie zaprojektowany do pełnienia funkcji chatbota. Jednak w przeciwieństwie do innych chatbotów lub inteligentnych asystentów oprogramowania, ChatGPT jest znacznie bardziej biegły w angażowaniu się w dialog z użytkownikami i może nawet reagować na informacje zwrotne, prosić o wyjaśnienia i iterować swoje odpowiedzi w oparciu o odpowiedź użytkownika.

“To, czy ChatGPT uważa, że to sztuczka, czy nie, jest nieistotne, jeśli nie ma konkretnych przypadków użycia dla tego narzędzia” – mówi Roberts. “Na szczęście dla OpenAI i innych działających w tej przestrzeni, istnieje wiele przypadków użycia generatywnej AI, w tym wsparcie dla przedsiębiorstw, interakcje z klientami, a nawet rozwój nowych produktów”.


Wykorzystali ChatGPT do stworzenia 4,000 wierszy i piosenek

artAistry.com, strona specjalizująca się w sztuce AI, wyznacza nowy standard tworzenia sztuki z pomocą technologii ChatGPT. Strona dodała obecnie do swojej witryny prawie 4,000 unikalnych wierszy i piosenek. Według właściciela strony Jeffa Ganima: “Technologia ChatGPT pozwala nam tworzyć sztukę na skalę. Dla każdego z naszych produktów generujemy unikalny wiersz lub piosenkę AI w oparciu o medium, na którym jest dostępny. To dość fascynujące, że AI może tworzyć wysokiej jakości poezję, która się rymuje.”

Każdy z wierszy i piosenek AI jest napisany głosem innej postaci historycznej, wybranej na podstawie indywidualnego dzieła sztuki. Pomaga to stworzyć unikalny głos i ton, który ma każdy wiersz i piosenka. Ponadto, artAistry.com integruje AI na każdym etapie procesu. Po pierwsze, program AI jest używany do tworzenia sztuki. Następnie inny program AI ogląda obraz i pisze opis. Po tym GPT3, technologia, która zasila ChatGPT, pisze profesjonalny tytuł dla dzieła sztuki i jeden wiersz dla każdego medium, na którym jest ono dostępne.

Chociaż technologia AI może być postrzegana przez niektórych jako negatywna siła, Ganim uważa, że istnieje wiele korzyści z jej stosowania. “Gdybyśmy nie mieli możliwości tworzenia wszystkich tych wierszy za pomocą AI, to nie jest tak, że mielibyśmy zatrudnić poetę, który napisałby wiersz do każdego z naszych opisów produktów. Ponieważ jednak jesteśmy w stanie tworzyć je na skalę, ludzie mogą doświadczyć sztuki poetyckiej w miejscu, w którym wcześniej by tego nie zrobili. AI oznacza, że sztuka może być wszędzie.”

Kontynuował: “To ekscytujące i fascynujące, jak AI może być wykorzystywane do tworzenia sztuki na skalę. Ale AI nie robi wszystkiego sama z siebie; wymaga kreatywności od ludzi, zarówno do stworzenia podpowiedzi dla każdego dzieła sztuki, jak i do dostrojenia programu AI, aby uzyskać pożądane rezultaty. Technologia AI otworzyła nowe, ekscytujące możliwości dla sztuki. Pytanie brzmi, czy będziemy odkrywać, czy wyruszymy w tę ekscytującą podróż? Czy też będziemy zbyt przywiązani do sposobu, w jaki rzeczy były robione w przeszłości i przegapimy nową granicę sztuki?”


ChatGPT – szansa i zagrożenie?

W listopadzie 2022 r. OpenAI wypuściła na rynek nowy model sztucznej inteligencji o nazwie ChatGPT (Generative Pre-Training Transformer) – umożliwiając ludziom zadawanie pytań i otrzymywanie odpowiedzi. Technologia stała się niezwykle popularna, zdobywając ponad milion użytkowników w ciągu pięciu dni od jego uruchomienia.

Wiele osób używało jej do pisania poezji lub tworzenia nowych przepisów. Ale inni mieli bardziej nikczemne pomysły. Eksperci szybko odkryli, że przestępcy używają ChatGPT do tworzenia złośliwych wiadomości e-mail i kodu, które można wykorzystać do hakowania organizacji. I w rzeczywistości – zaledwie kilka tygodni od jego wydania – ChatGPT jest już używany do tego właśnie celu. Zasadniczo jest to demokratyzacja hakowania — umożliwianie nawet nowicjuszom tworzenia złośliwych plików i narażanie nas wszystkich na ryzyko.

Sztuczna inteligencja to przełomowa technologia, która może radykalnie poprawić nasze życie dzięki spersonalizowanej medycynie, bezpieczniejszemu transportowi i wielu innym możliwościom. Ma również ogromny potencjał, aby pomóc branży bezpieczeństwa przyspieszyć rozwój nowych narzędzi ochronnych i bezpiecznego kodowania. Jednak wprowadzenie technologii AI niesie ze sobą również potencjalne zagrożenia – ostrzegał Dr Dorit Dor podczas konferencji World Economic Forum w Davos.

Dlaczego to ma znaczenie? Świat doświadczył 38 % wzrostu cyberataków w 2022 roku (w porównaniu do 2021 roku). Przeciętna organizacja była atakowana 1168 razy tygodniowo. Edukacja i opieka zdrowotna były dwiema najbardziej atakowanymi branżami, co spowodowało przestój w szpitalach i szkołach. Lekarze nie byli w stanie leczyć pacjentów, a szkoły zamknięto, a dzieci odesłano do domu. Niestety, teraz jesteśmy świadkami wzrostu cyberataków z powodu ChatGPT i innych generatywnych modeli sztucznej inteligencji.

OpenAI dokłada starań, aby powstrzymać nadużywanie swojej technologii AI, pisząc: „Chociaż dołożyliśmy starań, aby model odrzucał nieodpowiednie żądania, czasami będzie reagował na szkodliwe instrukcje lub zachowywał się stronniczo”. Ale niestety ChatGPT zmaga się powstrzymywaniem generowania niebezpiecznego kodu.

Zespół ekspertów Check Point Research odkrył, że niektórzy cyberprzestępcy wykorzystują ChatGPT do tworzenia złośliwych narzędzi – w niektórych przypadkach hakerzy całkowicie polegali na sztucznej inteligencji, podczas gdy inni po prostu używali sztucznej inteligencji do znacznego skrócenia czasu pisania złośliwego kodu. Od złośliwego oprogramowania, przez phishing, aż po skrypt, który może automatycznie zaszyfrować narzędzie ofiary bez interakcji użytkownika — z niepokojem obserwuje się, jak szybko cyberprzestępcy używają ChatGPT w środowisku naturalnym do swoich destrukcyjnych celów.

W tym miesiącu na dorocznym spotkaniu World Economic Forum mamy okazję, by liderzy z obszaru rządowego, sztucznej inteligencji, biznesu i cyberbezpieczeństwa spotkali się i pilnie omówili skrzyżowanie sztucznej inteligencji, cyberbezpieczeństwa i ogólnego bezpieczeństwa. Nie powinniśmy dążyć do tłumienia innowacji, ale raczej do zapewnienia bezpiecznych warunków ich wdrożenia. Razem z pewnością możemy stawić czoła temu zagrożeniu dla bezpieczeństwa publicznego, infrastruktury krytycznej i naszego świata.


Co niesie ze sobą rewolucja w dziedzinie ChatGPT?

ChatGPT od kilku tygodni robi prawdziwą furorę. Wspierany przez sztuczną inteligencję chatbot imponuje przekonująco ludzkim sposobem odpowiadania na pytania i interakcji z użytkownikami. Budzi to zarówno entuzjazm, jak i niepokój – także w branży cyberbezpieczeństwa. – mówi Tim Berghoff, Security Evangelist w G DATA Software.

Chatboty wykorzystujące technologię sztucznej inteligencji funkcjonują już od jakiegoś czasu. Wiele firm używa ich jako uzupełnienie opcji FAQ („często zadawanych pytań”) na swoich stronach internetowych oraz jako rozszerzenie oferty wsparcia. Nowy ChatGPT zaszokował ludzi z branży multimediów pod koniec 2022 roku, ponieważ niektóre odpowiedzi na pytania zadawane programowi przez użytkowników były tak przekonywujące, że praktycznie niemożliwe było stwierdzenie, czy udzielił ich człowiek, czy maszyna. Zrobiło to takie wrażenie, że według wstępnych niepotwierdzonych doniesień Microsoft planuje zainwestować dziesięć miliardów dolarów w OpenAI – firmę, która opracowała ChatGPT.

W zamian gigant programistyczny z Redmond będzie zatrzymywał 75 proc. zysków OpenAI aż do momentu skompensowania zainwestowanej wcześniej kwoty. Po osiągnięciu tego celu Microsoft uzyska 49 proc. udziałów w OpenAI. W tej technologii naprawdę chodzi o duże pieniądze. Potencjalne cele użycia systemów czatów opartych na sztucznej inteligencji budzą zarówno emocje jak i niepokój. Przypuszczenia, że Microsoft zamierza teraz uruchomić własną wyszukiwarkę Bing opartą na sztucznej inteligencji, będącą przeciwwagą dla dominacji Google, mogą okazać się prawdą. Możliwa jest również integracja z Cortaną – wirtualną asystentką Microsoftu.

Wiele osób, od programistów i dziennikarzy po osoby pracujące w obsłudze klienta i sprzedaży, jest krytycznie nastawionych do tych zmian, ponieważ obawiają się, że sztuczna inteligencja może w przyszłości ich zastąpić, w efekcie czego stracą pracę. Jakkolwiek zrozumiałe są te obawy, jest raczej mało prawdopodobne, aby ten scenariusz zrealizował się w średnim okresie czasu. Parafrazując – pojawienie się samochodu nie spowodowało, że wszyscy woźnicy zostali bez pracy z dnia na dzień.

ChatGPT od kilku tygodni robi prawdziwą furorę

Użycie chatbotów niezgodne z prawem

Systemy sztucznej inteligencji już od dłuższego czasu wspierają tworzenie oprogramowania. Oczywiście taka technologia może być również niewłaściwie wykorzystana – na przykład przez cyberprzestępców, którzy dokonują oszustw z pomocą chatbotów. Można sobie wyobrazić, że w fałszywym „call center”, gdzie działa sztab przestępców dokonujących cyberoszustw, pewnego dnia będzie tylko komputer lub centrum informatyczne. W połączeniu z inną technologią, opracowaną przez OpenAI, o nazwie Vall-E możliwości są tu wręcz przerażające.

Vall-E jest w stanie naśladować głosy ludzi w zwodniczo realistyczny sposób i to przy stosunkowo niewielkiej ilości posiadanego materiału źródłowego. Wystarczy niewielka próbka głosu. Do niedawna możliwości te były zarezerwowane wyłącznie dla twórców SF. Wykorzystując taką imitację głosu przez komputer można spowodować, na przykład, że operator telefonii komórkowej ujawni lub zmieni dane osoby.

ChatGPT i Vall-E obsługiwane prawidłowo, ale w celach niezgodnych z prawem, mogą stać się koszmarem dla cyberbezpieczeństwa. Zwłaszcza, gdy są wykorzystywane w szpiegostwie gospodarczym. W najgorszym scenariuszu może to spowodować całkowity brak zaufania do otrzymywanych e-maili lub rozmów telefonicznych od współpracowników lub przełożonych, ponieważ ich głosy mogą być tak dobrze imitowane przez komputer, że fałszerstwa nie da się rozpoznać przez telefon. Czy może to oznaczać krok wstecz i powrót do sytuacji, w której konieczne będzie załatwianie spraw osobiście, jeśli będzie się chciało mieć pewność, że nie rozmawia się ze sztuczną inteligencją naśladującą daną osobę?

Użycie coraz doskonalszych programów typu „deepfake”, kompilujących obraz i dźwięk tak, aby pokazać działania i wypowiedzi ludzi, które nigdy nie miały miejsca, może nawet wywołać wojnę. Na tym tle wydaje się uzasadnione mówienie o „technologii ryzyka”, której wykorzystanie powinno być ściśle uregulowane. Dlatego zarówno politycy, jak i producenci dali wyraźnie do zrozumienia w 2018 roku, że muszą istnieć jasne przepisy i regulacje w tym zakresie. Komisja Europejska również zajmuje się opracowaniem przepisów regulujących ten temat.

Ponadto technologie te można wykorzystać do rozpowszechniania i generowania fałszywych wiadomości, ponieważ informacje tekstowe tworzone przez ChatGPT są praktycznie w 100% „ludzkie”. Jedna z przyczyn takiego stanu rzeczy jest omówiona w dalszej części artykułu. ChatGPT może również pisać kody programu. Wystarczy prosta instrukcja, a bot poda żądane wiersze kodu. Naturalnie, wzbudziło to obawy, że programiści mogą w przyszłości okazać się zbędni. Jednak w tej kwestii nie ma powodu do niepokoju. Jednym z powodów jest to, że ChatGPT nie nauczył się samodzielnie tworzyć oprogramowania. Tym samym system również nie „wie”, jak działa bezpieczny kod. Utworzony kod może działać, ale samo bezpieczeństwo może być kwestionowane.

Kod źródłowy generowany przez sztuczną inteligencję może zatem zawierać luki w zabezpieczeniach. Podejmowano nawet próby wykorzystania ChatGPT do tworzenia ransomware – oprogramowania, które blokuje dostęp do systemu komputerowego lub uniemożliwia odczyt zapisanych w nim danych, a następnie żąda od ofiary okupu za przywrócenie stanu pierwotnego.

W chwili obecnej tworzenie oprogramowania przez sztuczną inteligencję jest wciąż w bardzo wstępnej fazie. Jak dotąd nikomu nie udało się utworzyć całych pakietów oprogramowania wyłącznie za pomocą sztucznej inteligencji. Nadal jednak nie jest jasne czy, w jaki sposób i za pomocą jakich narzędzi, będzie można zidentyfikować oprogramowanie utworzone przez sztuczną inteligencję – w tym temacie istnieje cały czas duże pole do dyskusji.

Inteligentne oszustwo?

Nie ma więc powodu, aby twórcy oprogramowania obawiali się o swoją pracę. Jak dotąd nic nie zastąpi wieloletniego doświadczenia w programowaniu i wyczucia, czy kod jest bezpieczny, czy nie. Szkodliwe oprogramowanie tworzone przez sztuczną inteligencję jeszcze się nie pojawiło (a przynajmniej nie ma jeszcze takich informacji) – ale gdyby w pewnym momencie do tego doszło, wątpliwym jest, czy w ogóle dałoby się je rozpoznać. Inny sposób oszukańczego wykorzystania sztucznej inteligencji już obiegł media społecznościowe: okazuje się, że ChatGPT może tworzyć świetnie brzmiące i doskonale spójne eseje na dowolny temat i to w ciągu kilku sekund.

Komentarze wielu uczniów: „Sam bym tego lepiej nie napisał”. Oczywiście ucieszy to tych, którzy zapomnieli lub którym się nie chciało napisać eseju. Już w tej chwili nauczyciele skarżą się na to, że uczniowie korzystają ze sztucznej inteligencji przy wykonywaniu prac domowych. Zaczyna to również być problemem w środowisku akademickim. Fakt, że tekst napisany przez ChatGPT jest praktycznie nie do odróżnienia od tekstu napisanego przez człowieka, może stwarzać potencjalne problemy z rzetelnością opracowań naukowych. Jako przeciwwaga do takich działań, tworzone są nowe programy umożliwiające nauczycielom rozpoznawanie tekstów utworzonych przez sztuczną inteligencję i przedstawianych przez uczniów i studentów jako ich własne prace.

Stary problem w nowej odsłonie?

W przeszłości systemy sztucznej inteligencji miały również problemy z rasizmem i seksizmem. Osoby ciemnoskóre i kobiety często doświadczały dyskryminacji wskutek decyzji podejmowanych przez sztuczną inteligencję. Nie jest to jednak „wrodzona” cecha sztucznej inteligencji. Takie zachowania zostały wywołane przez materiał źródłowy i algorytmy leżące u podstaw działania sztucznej inteligencji. Materiał źródłowy jest dostarczany przez ludzi, a jeśli już w nim istnieje przekaz podprogowy, to oczywiście przenosi się on na system, który uczy się od swoich twórców.

Sztuczna inteligencja nie potrafi się sama korygować, rozpoznawać negatywnych skłonności ani odpowiednio dostosowywać swojego zachowania. Nie ma również filtrów. To właśnie te niewielkie niedoskonałości powodują, że sztuczna inteligencja wydaje się być tak niewiarygodnie „ludzka”. Rozpowszechniane fałszywe wiadomości lub teorie spiskowe spotykają się z większą akceptacją przez ludzi, którzy są na nie podatni.

Problemy podstawowe

Z powyższych względów baza danych, z której uczy się chatbot oparty na sztucznej inteligencji, ma ogromne znaczenie. Obowiązuje tutaj zasada „co na wejściu, to na wyjściu”: jeżeli wprowadzi się nieprawidłowe algorytmy działania do sztucznej inteligencji, również uzyska się nieprawidłowe efekty. Zarówno Facebook (lub Meta), jak i Microsoft doświadczyły tego z pierwszej ręki. „Tay” – chatbot opracowany przez Microsoft wykorzystujący technologię sztucznej inteligencji spowodował katastrofę wizerunkową Microsoftu w 2016 roku po tym, jak bot połączony z Twitterem zaczął publikować rasistowskie, lubieżne, seksistowskie i mizoginistyczne posty. Tay nazwał nawet Holokaust „wymysłem” w jednym ze swoich postów. Bot był podłączony online przez prawie 48 godzin, zanim Microsoft go opanował i wyłączył. Druga taka akcja została przerwana po niecałej godzinie. To było w 2016 roku. Od tego czasu wiele się wydarzyło – przynajmniej tak można by sądzić. Ale w sierpniu 2022 r. Meta Blender wprowadził Bota 3. Ten bot miał taką samą słabość, jak ChatGPT: udzielane odpowiedzi były różne w zależności od sposobu sformułowania pytania. Jeśli użytkownik zadaje botowi pytanie, ten w tle przeszukuje Internet i znajduje różne, bardziej i mniej wiarygodne źródła, na których się opiera. Wynik: Blender Bot 3 powielał teorie spiskowe i otwarcie wyrażał antysemityzm. Nawet na prezesie firmy Meta Marku Zuckerbergu nie pozostawił suchej nitki i stwierdził, że chociaż jest dobrym biznesmenem, jego praktyki biznesowe bywają nieetyczne, a chociaż jest filantropem, jest manipulantem i do tego dziwnym.
Problem jest oczywisty i nie różni się od procesu, przez który przechodzą ludzie.

Przedszkole „sztucznej inteligencji”

Nie chcemy uczłowieczać komputerów, ale może powinniśmy traktować nowoczesne systemy sztucznej inteligencji jak małe dzieci? Nie emocjonalnie, ale raczej z edukacyjnego punktu widzenia. Jeśli nie nauczymy sztucznej inteligencji prawidłowych zachowań od samego początku, może ona wyrządzić wiele szkód. Podobnie jak małe dziecko, które głośno i radośnie wypowiada przekleństwa usłyszane od dorosłych i które należy odpowiednio wychować, również sztuczną inteligencję należy odpowiednio ukierunkować. Jako ludzie uczymy się od naszego otoczenia i z interakcji z innymi. Natomiast sztuczna inteligencja pobiera informacje z otoczenia i formuje własne zasady, oderwane od interakcji międzyludzkich, dlatego obecnie koncepcje etyczne nie są elementem przy formułowaniu wypowiedzi. Taki zbiór zasad zostaje określony w oparciu o informacje znalezione w Internecie przez sztuczną inteligencję, a jak wiadomo w Internecie treści etycznie wątpliwe mają sztucznie zawyżoną popularność. Sztuczna inteligencja przyjmuje, że to, co cieszy się dużym zainteresowaniem – bez względu na to, z jakiego pochodzi źródła – musi być dobre. W taki sposób generowane są posty z treściami rasistowskimi.

Tutaj również obowiązuje zasada: co na wejściu, to na wyjściu. Sztuczna inteligencja musi więc nauczyć się kompetencji medialnych, aby odróżniać informacje rzetelne i obiektywne od wątpliwych moralnie i naukowo. Ale to już jest temat na oddzielną dyskusję. Pewne jest tylko jedno: media społecznościowe niekoniecznie muszą być właściwą „szkołą” dla sztucznej inteligencji.

Następnym dużym wyzwaniem, które nas czeka będzie więc wybór materiałów i danych, z których systemy takie jak ChatGPT będą się uczyć. Oprócz całego entuzjazmu, powodem do niepokoju jest to, że sztuczna inteligencja może tak łudząco naśladować ludzkie zachowanie. W przyszłości będziemy musieli opracować metody pozwalające odróżnić prawdziwą osobę od sztucznej inteligencji, zwłaszcza w przypadku kontaktów nawiązywanych przez Internet lub telefon. Niezależnie od tego, jak przydatna i pomocna jest sztuczna inteligencja, nie powinniśmy jej ślepo ufać.

Podsumowanie

Nie ma sensu demonizowanie nowej technologii. Jest już tutaj i będzie odgrywać coraz większą rolę w przyszłości, czy nam się to podoba, czy nie. Żadna przełomowa technologia nie została trwale zatrzymana z powodu obaw i przesądów. Jeśli popatrzymy wstecz: wraz z pojawieniem się kolei krążyła wielokrotnie powtarzana plotka, że żaden człowiek nie będzie w stanie wytrzymać prędkości przekraczającej 20 km/h, bo albo się udusi, albo straci przytomność wskutek wstrząsów. Tygodnik medyczny „The Lancet”, który istnieje do dziś, w dużej mierze obalił ten mit. W numerze z 25 stycznia 1862 zamieścił opis choroby lokomocyjnej i zalecenia, jak chronić się przed przeziębieniem w czasie podróży pociągiem. A dzisiaj? Rekord prędkości francuskich zespołów trakcyjnych TGV niepobity od 2007 roku wynosi prawie 575 km/h – a niemieckie pociągi ICE w normalnej eksploatacji osiągają prędkość do 300 km/h.


ChatGPT staje się filarem w branży eSportowej

Branża eSportowa musiała pokonać poważne przeszkody w drodze do swojego obecnego statusu. W poprzednich latach ograniczona infrastruktura turniejowa i mniejsza liczba organizacji ograniczały wzrost rynku. Takie ograniczenia skutkowały mniejszymi strumieniami przychodów dla graczy i właścicieli drużyn.

Jednak w 2017 roku Riot Games stworzył League of Legends dla regionu Ameryki Północnej i Europy, nadając zorganizowany format turniejowi. Później, w 2018 roku, Activision Blizzard, Inc. uruchomił swoją ligę Overwatch, tworząc wymaganą infrastrukturę do monetyzacji turniejów eSportowych. Wśród wielu innowacji technologicznych, które przyczyniają się do eSportu, sztuczna inteligencja (AI) stała się przydatnym narzędziem zarówno dla graczy, jak i deweloperów.

Na przykład, wielu graczy domaga się aplikacji coachingowych, które są oparte na AI. Coaching napędzany przez AI oferowany przez SenpAI sugeruje lepsze strategie dla jednych z najlepszych gier wideo, takich jak DotA 2 i League of Legends, poprzez dostęp do statystyk gracza. SenpAI oferuje również wskazówki w grze, zapewniając dogłębne statystyki dla graczy do analizy. React Gaming Group Inc (TSX-V: RGG) (OTC: ITMZF), Electronic Arts Inc (NASDAQ: EA), C3.ai, Inc (NYSE: AI), BuzzFeed, Inc (NASDAQ: BZFD), Mobile Global Esports Inc (NASDAQ: MGAM)

Poza segmentem eSportu, AI robi imponujące postępy. Chat Generative Pre-Trained Transformer, zwany potocznie ChatGPT, chatbot uruchomiony przez OpenAI w listopadzie 2022 roku, szybko zwrócił na siebie uwagę szczegółowymi odpowiedziami i arcyciekawymi odpowiedziami z wielu dziedzin wiedzy. Popularność, którą zdobył od tego czasu, zwiększyła wartość OpenAI do 29 mld USD.

Ponadto Microsoft potwierdził, że rozszerza partnerstwo z OpenAI, inwestując podobno 10 mld USD, ponieważ gigant technologiczny chce przyspieszyć przełom w AI. Microsoft Azure będzie również kontynuował jako wyłączny dostawca chmury dla chatbota, ponieważ OpenAI używa Azure do szkolenia wszystkich swoich modeli.

– Esport to duży i rozwijający się rynek, którego przychody mają osiągnąć 1,87 miliarda dolarów w 2025 roku, według firmy Statista zajmującej się analizą rynku. Wraz z rozwojem tej prężnie rozwijającej się branży, AI jest powszechnie postrzegana jako mająca potencjał, aby przynieść znaczące możliwości przychodów w następnej dekadzie. Zdolność AI do automatyzacji powtarzalnych zadań, podejmowania inteligentnych decyzji i analizowania dużych ilości danych szybciej niż ludzie, czyni ją cennym narzędziem dla firm z różnych branż, w tym gier i esportu. W esporcie online, AI może pomóc poprawić organizację turniejów i zaangażowanie graczy, dostarczyć cennych informacji dla sponsorów i usprawnić procesy związane z zakładami, wśród wielu innych zastosowań, które mogą przynieść korzyści Compete.gg i LOOT.BET. Dlatego w 2023 roku skupimy się na zwiększeniu możliwości AI w obu naszych platformach esportowych onlinepowiedział Leigh Hughes, CEO React Gaming.