Sztucznej inteligencji brakuje inteligencji? Microsoft wycofuje prześmiewcze materiały napisane przez AI

Słyszeliście, drodzy czytelnicy, o serwisie Microsoft Travel? Jeśli nie, to teraz macie okazję – niestety teksty, które koneserom dobrego humoru najbardziej przypadłyby do gustu, właśnie wycofano. A szkoda – z pewnością bowiem poradnikowi, który radzi turyście udać się do kuchni dla potrzebujących, nie można odmówić niecodziennego podejścia…

Microsoft Travel to, jak nazwa wskazuje, seria poradników i artykułów podróżniczych, dostępnych poprzez odpowiednie zakładki na portalu MSN oraz w wyszukiwarce Bing. Jako takie, nie wyróżniały się szczególnie od setek podobnych, produkowanych taśmowo tekstów o podobnej problematyce. Do chwili, kiedy jednak zaczęły się wyróżniać.

Jak każda szanująca się korporacja (tj. szanująca premie i bonusy swojego kierownictwa), Microsoft wydaje się poświęcać ogrom uwagi na tzw. optymalizację kosztów. Czasami jest to obiektywnie bardzo rozsądne, czasami wprost przeciwnie, a czasami owa optymalizacja jest potrzebna, ale optymalizuje się nie tam, gdzie trzeba (np. przeprowadzając cięcia w zasadniczej działalności firmy, jednocześnie nie ruszając albo wręcz powiększając już rozdętą administrację).

Bardzo możliwe, że własnie ta ostatnia sytuacja zaszła w przypadku Microsoftu i jego działu zajmującego się tekstami podróżniczymi. Te ostatnie bowiem od pewnego czasu zaczęła pisać AI. Niby nic nowego – z wyjątkiem może tego, że AI miała być własnym produktem Microsoftu.

Zobacz też: Tesla grozi firmie wydobywczej – objaw głodu litu?

Chytra baba z Radomia, wersja z Ottawy

I cóż takiego ciekawego napisała AI? Ano na przykład to, że wizytując stolicę Kanady, absolutnie nie należy przegapić wizyty w tamtejszym Banku Żywności. Aby w pełni docenić urok owej instytucji, pomagającej potrzebującym w Ottawie, tekst radzi, aby przyjść tam z pustym żołądkiem. W końcu, jak zauważa machina, życie jest wystarczająco ciężkie i bez dodatkowych wydatków na jedzenie. Cóż – co by nie mówić, wczasy na każdą kieszeń.

Z kolei w artykule opisującym atrakcje Montrealu, kreatywny bot rozwodzi się nad różnicami między „burgerem” i „hamburgerem”, opisując idealny jego zdaniem skład tego ostatniego (od razu widać, że AI Microsoftu ma wyraziste poglądy kulinarne i tylko żałować, ze jako fragment kodu nie będzie miała okazji zjeść takiego hamburgera). Pomocna maszyna odkrywa także przed potencjalnymi turystami szokującą tajemnice – otóż popularną wśród miejscowych lokalizacją, gdzie można zjeść hamburgera, jest McDonald.

Zobacz też: ASIC: krypto-bank łamał prawo – a dowody sam umieścił na swojej stronie

A i to nie koniec cennych porad. Jeśli pojedziecie do Anchorage (największy ośrodek miejski na Alasce), z pewnością przyda Wam się wiedza na temat tego, czym są owoce morza (org. seafood). Wiecie czym? Jeśli nie – nic się nie bójcie, AI z zapałem Wam to bowiem wyjaśni. Otóż „seafood” to takie „food”, tylko że pochodzące z „sea”. No to teraz już wiecie! Bot był zresztą na tyle uprzejmy, że dorzucił nawet kilka ciekawostek dotyczących tematu – np. takich, że przykładem jedzenia pochodzącego z morza są ryby, albo że jedzenie takie jest spożywane na całym świecie. Prawa, ile człowiek się może nauczyć?

Niestety większość z tych perełek została najwyraźniej zdjęta, zanim zdążono uwiecznić je dla potomności – tak przynajmniej twierdzi Businessinsider, który prosił Microsoft o komentarz i pytał o inne artykuły z tej serii.

Zobacz też: Czy ChatGPT jest socjalistą? Badacze wykazali jednoznaczną stronniczość bota

Our Microsoft AI dindu nuffin!

Gigant z Redmont ze swej strony twierdzi, że jego AI jest absolutnie niewinna. Jego zdaniem, te wielce oryginalne porady turystyczne wynikają „błędu ludzkiego” (tyle razy pod rząd? – przyp. Red.), nie zaś sarkazmu bota.

Jeśli to nie sztuczna inteligencja, to kto w takim razie? Przecież nie tak dawno firma pozbywała się ludzkich pracowników w tej dziedzinie, zastępując ich programami. Otóż, jak wyjaśnił Microsoft, treści te powstały „przez kombinację technik algorytmicznych i nadzoru ludzkiego”. Innymi słowy – napisała je właśnie AI, która według firmy tego nie zrobiła – tyle że nad nią w teorii miał stać jakiś pracownik i pilnować, czy nie puszcza ona takich „baboli”, jak opisane powyżej. No, chyba że tę rolę też już powierzono jakiemuś botowi.

A nie jest to wykluczone. Sam bowiem newsowy portal Microsoftu, MSN, zawiera najwyraźniej bezrefleksyjny „przedruk” artykułu dokładnie o tej sprawie z Businessinsidera. Możliwe, że też dokonany przez AI.

Może Cię zainteresować:

Dziękujemy, że przeczytałeś/aś nasz artykuł do końca. Obserwuj nas w Wiadomościach Google i bądź na bieżąco!