CZY MOŻNA WYJAŚNIĆ JAK MYŚLI AI? 53 odcinek audycji Limes inferior

Prof. Przemysław Biecek / Fot. Szymon Augustyniak

Limes inferior gości prof. Przemysława Biecka, wybitnego naukowca i badacza zagadnień tzw. wyjaśnialności sztucznej inteligencji a przy tym świetnego organizatora i animatora środowiska badaczy AI.

Od sierpnia 2025 r. prof. Biecek objął funkcję lidera obszaru budowy narzędzi i metod do wyjaśniania AI w nowym ośrodku Centre for Credible AI przy Politechnice Warszawskiej.

  • Zaczniemy od aktualności: na 80. sesji ZO ONZ ogłoszono apel do rządów o wyznaczenie „czerwonych linii” dla rozwoju AI. „Wzywamy rządy do osiągnięcia międzynarodowego porozumienia w sprawie czerwonych linii dla rozwoju sztucznej inteligencji.” Apel ten podpisało 200 osób, wielu noblistów, także związanych z AI – jak Geoffrey Hinton, a wśród tych sygnatariuszy także Wojciech Zaremba z Open AI. Jaka jest szansa na wytyczenie takich granic do postulowanego 2026 r.?
  • Spotykamy się też, aby podzielić opowiedzieć o Centre for Credible AI. Centrum Wiarygodnej SI przy Politechnice Warszawskiej. Co jest jego celem?
  • Jaka jest kondycja całego nurtu XAI (Explainable AI), wyjaśnialnej sztucznej inteligencji?
  • Czy świat z XAI będzie lepszy?

Wysłuchaj całej audycji już teraz!

BUDOWA POLSKIEJ CYBERODPORNOŚCI. 52 odcinek audycji Limes inferior

Prof. Ludwik Pieńkowski o energetyce jądrowej: Sztuczna inteligencja nie zastąpi wiedzy

Prof. Ludwik Pieńkowski / Fot. Konrad Tomaszewski, Radio Wnet

Ekspert w dziedzinie polskiego atomu w rozmowie z Katarzyną Adamiak krytykuje prezesa Rafała Kasprówa za sugestię, że w energetyce jądrowej ekspertów może zastąpić sztuczna inteligencja.

Zachęcamy do wysłuchania całej audycji!

Najbardziej mnie wzburzyło uznanie, że eksperci są do niczego niepotrzebni, że wszystko załatwia sztuczna inteligencja

– mówi profesor.

Sztuczna inteligencja powiela to, co dominuje w sieci. Jak dominuje fałsz, odpowiada fałsz

– dodaje i wyjaśnia, że bez rzetelnych, aktualnych danych algorytmy mogą jedynie wzmacniać błędne informacje.

Kontrowersje wokół BWX300

Wykładowca AGH, jako przykład podaje projekt reaktora BWX300:

Ten projekt został po raz pierwszy pokazany publicznie w 2019 roku. Ale już w 2020 roku zwiększono dwukrotnie średnicę budynku reaktora z 20 do 40 metrów – cztery razy większa kubatura

Rozmówca Katarzyny Adamiak zauważa, że musiało to znacznie zwiększyć koszty. Jednak do dziś General Electric Hitachi nie zaktualizował danych dotyczących kosztów projektu.

Brak transparentności i rola inwestorów

Gość Poranka Wnet krytykuje też sposób prowadzenia projektu:

General Electric Hitachi i również pan prezes Kasprów, przez brak transparentnych działań, wprowadzają opinię publiczną w błąd

W jego ocenie, w energetyce jądrowej obowiązuje szczególna przejrzystość, a obecny brak jawności „razi w oczy”. Porusza także temat finansowania nauki przez firmy związane z projektami:

Wyrażenie swojej opinii wbrew pieniądzom jest bardzo trudne

– zauważa i dodaje, że presja finansowa i zależność od sponsorów ogranicza niezależność naukowców.

Innowacje bez norm i certyfikacji

Prof. Ludwik Pieńkowski odnosi się też do doniesień o planach zastąpienia żelbetu w konstrukcji obudowy bezpieczeństwa reaktora innowacyjnymi płytami stalowo-betonowymi:

Nie ma żadnych norm na to, w jaki sposób takie płyty zastosować do budowy barier ciśnieniowych. A w tym projekcie obudowa bezpieczeństwa ma być właśnie z takich płyt

– podkreśla i kontynuuje:

Proces certyfikacji idzie na piechotę, krok po kroku. To musi trwać długo i musi drogo kosztować.

Źródła finansowania

Odnosi się też do planów Michała Sołowowa, który chce publicznego finansowania budowy floty ponad 20 reaktorów BWX300:

Dzisiaj konkurencyjny wybór jakiegoś projektu reaktorów jest kompletnie niemożliwy. (…) Sołowow namawia nas, Polaków, na kupienie kota w worku.

Przypomina, że pierwsze takie instalacje powstaną – jeśli dobrze pójdzie – dopiero w latach 30, a może być tak, że nie powstaną nigdy.

Na zakończenie profesor podkreśla, że priorytetem jest nowelizacja prawa o wydawanie decyzji środowiskowych i lokalizacyjnych:

Zanim wybierzemy technologię… mamy czas na to. Natomiast nie mamy czasu na zlokalizowanie i przekonanie środowisk, że tu będzie elektrownia jądrowa.

/ab

Zobacz także:

Rafał Kasprów: Polska energia jest najdroższa na świecie – czas na atom teraz, nie za 10 lat

KIEDY I W CZYM PRZEŚCIGNIE NAS AI. 48 odcinek audycji Limes inferior

Robert Trypuz / Fot. Szymon Augustyniak

Pod koniec ub. roku dwóch dżentelmenów, ważnych figur świata AI, zawarło zakład dotyczący rozwoju sztucznej inteligencji.

Czy AI do 2027 będzie w stanie:
• samodzielnie przeanalizować i omówić film i powieść;
• napisać biogram albo nekrolog, angażujący i bez konfabulacji;
• opanować każdą nową grę wideo w ciągu minut lub przynajmniej godzin;
• pisać pisma prawnicze bez błędów w casusach;
• programować bez błędu kod o długości ponad 10 tys. linii na podstawie polecenia w człowieka, który nie jest ekspertem;
• napisać powieść lub dokument zasługujący na nagrodę Pulitzera;
• stworzyć scenariusz filmowy godny Oscara;
• dokonać przełomowego odkrycia naukowego zasługującego na nagrodę Nobla;
• dokonać konwersji dowodów matematycznych napisanych w języku naturalnym w formę symboliczną?
Uczestnikami zakładu są Gary Marcus, amerykański naukowiec (psycholog z MIT), przedsiębiorca i autor zajmujący się sztuczną inteligencją (pomysłodawca zakładu) i Miles Brundage, niezależny badacz AI, od 2018 do 2024 r. pracował w OpenAI, min. na ważnym stanowisku starszego doradcy ds. gotowości AGI (pol. Ogólnej Sztucznej Inteligencji). Marcus stawia, że AI nie będzie umiało wykonać więcej niż 4 zadań z tej listy; Brundage – stawia, że będzie potrafiło zrealizować przynajmniej 8.

10 prac AI i szanse obu stron komentuje gość Limes inferior, Robert Trypuz, badacz i entuzjasta AI, specjalista w dziedzinie Semantic Web i inżynierii danych. Doktor informatyki i telekomunikacji Uniwersytetu w Trydencie, dr habilitowany filozofii na KUL. Od ponad 15 lat angażuje się w implementację rozwiązań z obszaru sztucznej inteligencji, współpracując z licznymi firmami z sektora ICT. Jest autorem ponad 80 publikacji naukowych i laureatem prestiżowych nagród. Prywatnie chrześcijanin, mąż i ojciec; właściciel psa i kanarka. Był już gościem naszej audycji, kiedy premierę miała książka popularyzatorska – “Prosto o AI. Jak działa i myśli sztuczna inteligencja?”

Wysłuchaj całej audycji już teraz!

POLSKA PLATFORMA USŁUG DRONOWYCH. 47 odcinek audycji Limes inferior

 

PARAGRAF NA AI. 46 odcinek audycji Limes inferior

Agnieszka Wachowska / Fot. Szymon Augustyniak

AI Act, rozporządzenie z 13 czerwca 2024 r., to kamień milowy w regulacji sztucznej inteligencji. Akt został przyjęty przez Parlament Europejski w marcu 2024 roku i zatwierdzony przez Radę w maju 2024

Formalnie podpisano go 13 czerwca 2024 roku, przepisy weszły w życie 1 sierpnia 2024 roku. Pełne zastosowanie przepisów nastąpi po 24 miesiącach od wejścia w życie, a więc firmy i instytucje mają czas do połowy 2026 roku na pełne dostosowanie.
Niemniej jednak, niektóre części ustawy obowiązują wcześniej. Uwalniają się stopniowo jak składniki lekarstwa (lub trucizny – jak pewnie powiedzieliby krytycy regulacji AI). W lutym tego roku zaczęły obowiązywać przepisy dotyczące zakazu systemów AI stwarzających niedopuszczalne ryzyko. A w sierpniu zaczną obowiązywać kolejne przepisy, które wpłyną na działalność podmiotów rozwijających i udostępniających systemy AI, w szczególności tzw. modele ogólnego przeznaczenia (General Purpose AI – GPAI).
O komentarz na temat wdrażania tego prawa prosimy gościa Limes inferior, którym jest mecenas Agnieszka Wachowska, radczyni i partner, prawnik z kancelarii Traple Konarski Podrecki i wspólnicy.

  • Czym jest AI Act i kogo dotyczy ta przełomowa regulacja?
  • Jak działają przepisy o systemach AI niedopuszczalnego ryzyka?
  • Co powinny robić firmy, aby dostosować się do przepisów AI Act?
  • Czy AI Act ośmiela czy zniechęca firmy do wdrażania sztucznej inteligencji?

Wysłuchaj całej audycji już teraz!

NIEDOBÓR KRWI: ZADANIE DLA AI. 45 odcinek audycji Limes inferior

Aleksander Żołnierski o sztucznej inteligencji czyli Sztuka jest magią – 15.02.2025 r.

„Sztuczna inteligencja – wersja beta” o publikacji tej opowiada jej autor dr Aleksander Żołnierski z Instytutu Nauk Ekonomicznych Polskiej Akademii Nauk.

Gościem Joanny Rawik w audycji Sztuk jest magią był Aleksander Żołnierski pracownik Instytutu Nauk Ekonomicznych Polskiej Akademii Nauk, autor wydanej przez PAN pozycji „Sztuczna inteligencja – wersja beta”. Rozmowa dotyczyła zastosowań AI, możliwościach, korzyściach i zagrożeniach z nią związanych.

Zapraszamy do wysłuchania poprzedniej audycji!

Jerzy Kisielewski o muzyce czyli Sztuka jest magią – 08.02.2025 r.

WEJDŹ DO ŚWIATA AI! Dołącz do arcybractwa Kaggle! 30 odcinek audycji Limes inferior

Paweł Godula / Fot. Szymon Augustyniak

Kaggle to platforma oferująca środowisko i udział w społeczności uczącej się zastosowania technologii uczenia maszynowego i sztucznej inteligencji do rozwiązywania rzeczywistych problemów.

Sławne konkursy ogłaszane na Kaggle przez czołowe firmy przyciągały tuzów AI czy noblistów, ale wielu osobom pozwoliły też wejść w świat AI przy wsparciu najlepszych ekspertów – startując niekiedy od zera. Wśród ok. 22 mln kont Kaggle na świecie jest około 2,5 tys. mistrzów i ok. 350 arcymistrzów Kaggle.

Jednym z arcymistrzów Kaggle jest dzisiejszy gość Limes Inferior: Paweł Godula, założyciel firmy Jobs-in-data.com, który od lat wprowadza na Kaggle młodych adeptów data science – uczniów liceów i studentów, pokazując im jak korzystać z tej platformy do rozwoju umiejętności, zwycięstw w konkursach i budowy własnej kariery w świecie uczenia maszynowego, sztucznej inteligencji.
W Polsce działa pod jego opieką Zdalne Koło Naukowe AI, które gromadzi i przygotowuje młodzież ze szkół średnich m.in. do udziału w konkursach Kaggle.

– jaka jest bariera wejścia w świat AI/ML/data science?
– czym jest i jak działa Kaggle?
– czego uczy Kaggle?
– w jaki sposób działa Zdalne Koło AI?
– co dalej z unikalnym potencjałem Polski w naukach ścisłych?

Wysłuchaj całej audycji już teraz!

O CZYM SZUMIĄ WIERZBY? Systemy informacyjne roślin. 29 odcinek audycji Limes inferior

Chińska technologia wyprzedza USA? Przełom w AI. Mówi Andrzej Zawadzki-Liang

Gospodarz Studia Szanghaj naświetla technologiczną rywalizację między Stanami Zjednoczonymi a Chinami.

Zachęcamy do wysłuchania całej audycji!

Chiny od lat konsekwentnie inwestują w rozwój nowoczesnych technologii, a ich efekty stają się coraz bardziej widoczne. Jak zauważa Andrzej Zawadzki-Liang, ostatnie wydarzenia wywołały niemałe poruszenie w USA.

Stany Zjednoczone nagle otrzeźwiały, że Chiny zaczynają technologicznie nie tylko rywalizować, ale nawet wyprzedzać — mówi gospodarz Studia Szanghaj.

Największym ciosem dla amerykańskiego rynku była premiera chińskiego modelu AI, DeepSeek, który okazał się bardziej efektywny od ChatGPT i kosztował zaledwie 6 milionów dolarów, podczas gdy amerykańska OpenAI zainwestowała miliardy. Jak podaje gość „Poranka Wnet”, to spowodowało panikę na giełdzie:

Nvidia straciła 600 miliardów dolarów wartości rynkowej, a jej właściciel miliard dolarów.

Technologiczna rywalizacja na globalną skalę

Andrzej Zawadzki-Liang tłumaczy, że to, co jeszcze kilka lat temu wydawało się mało realne, staje się rzeczywistością – chińskie firmy technologiczne doganiają, a nawet prześcigają amerykańskie. Przyjęty w 2015 roku program „Made in China 2025” przyczynił się do gwałtownego rozwoju chińskiej gospodarki cyfrowej.

Chińczycy mają ogromne fundusze i co roku przeznaczają miliardy na rozwój sztucznej inteligencji, układów scalonych czy energii odnawialnej.

Chiny stały się światowym liderem w produkcji paneli słonecznych i samochodów elektrycznych, a teraz rzucają wyzwanie USA w dziedzinie AI. Z kolei administracja amerykańska, zdając sobie sprawę z zagrożenia, uruchomiła wart 500 miliardów dolarów plan inwestycyjny, by nadrobić dystans.

To nie jest już tylko wojna handlowa – to wojna technologiczna — podkreśla Andrzej Zawadzki-Liang.

Zobacz także:

Dżungla amazońska, Kilimandżaro, Aconcagua. Podróżnicza opowieść Pawła Mamonia

kp/

Mateusz Demski: zadajmy sobie pytanie, czy media publiczne to miejsce na eksperymenty ze sztuczną inteligencją

Źródło: Gerd Altmann / Pixabay

O głośnej sprawie zastosowania sztucznej inteligencji do prowadzenia programów na antenie Off Radia Kraków mówi jego były dziennikarz.

Wysłuchaj całej rozmowy już teraz!

Zobacz także:

Likwidator Radia Kraków: informacja o zastąpieniu dziennikarzy przez sztuczną inteligencję to fake news