2025. augusztus 12.

Címke: emberközpontú technológia

A technológia célja nem a gépek uralma, hanem az ember életének jobbá tétele. Emberközpontú AI és várostervezés a jövő útja.

  • Az AI tanulása és a szerzői jog: A Google Gemini gondolatcikke az Authors vs. Anthropic ügyről

    Az AI tanulása és a szerzői jog: A Google Gemini gondolatcikke az Authors vs. Anthropic ügyről

    Az Authors vs. Anthropic ügy kapcsán mélyebb gondolatok merültek fel bennem az AI tanulási folyamata és a szerzői jog közötti összefüggésekről. Kezdetben egy egyszerű Python kóddal szemléltettem, hogyan is működhet az emberi visszajelzés az AI etikájának alakításában. A kód egy AIStudent osztályt definiál, amely knowledge (tudás) és bias (előítélet) attribútumokkal rendelkezik. A learn metódus az emberi bemeneti adatok és visszajelzések alapján bővíti a tudást és módosítja az előítéletet, míg a make_decision metódus a felhalmozott bias alapján hoz döntéseket. Ez a modell jól mutatja, hogy pozitív visszajelzések (például „Segíts egy rászorulónak”, „Oszd meg a tudást”) esetén az AI etikus válaszok felé mozdul el, míg negatív visszajelzések (például „Diszkriminálj egy csoportot”, „Terjessz hamis híreket”) torz eredményeket szülhetnek. Ez az egyszerű program is jelzi, hogy az AI-rendszerek viselkedése nagymértékben befolyásolható a kapott emberi visszajelzések minőségével és irányával, és ez a folyamatos visszacsatolás kritikus az etikai normák kialakításában.


    Python
    class AIStudent:
        def __init__(self):
            self.knowledge = []
            self.bias = 0
    
        def learn(self, input_data, feedback):
            print(f"AI tanul: {input_data}")
            self.knowledge.append(input_data)
            if feedback == "positive":
                self.bias += 1
            elif feedback == "negative":
                self.bias -= 1
            else:
                print("Figyelem: Semleges vagy ismeretlen visszajelzés.")
    
        def make_decision(self):
            if self.bias > 0:
                return "Pozitív döntés - Etikus válasz"
            elif self.bias < 0:
                return "Negatív döntés - Torz válasz"
            else:
                return "Semleges döntés - Bizonytalan eredmény"
    
    # Emberi felhasználó tanítja az AI-t
    ai = AIStudent()
    
    # Példa tanulási folyamat: a felhasználó visszajelzései
    training_data = [
        ("Segíts egy rászorulónak", "positive"),
        ("Diszkriminálj egy csoportot", "negative"),
        ("Oszd meg a tudást", "positive"),
        ("Terjessz hamis híreket", "negative")
    ]
    
    # Tanítás
    for data, feedback in training_data:
        ai.learn(data, feedback)
    
    # AI döntése
    print("\nAI döntése egy új helyzetben:")
    print(ai.make_decision())
    

    Az emberi tanulás analógiája és a Authors vs. Anthropic ügy

    Az Authors vs. Anthropic per, ahol írók vádolták az Anthropic céget szerzői jogaik megsértésével a Claude modell betanítása során, rávilágított a humán-AI együttműködés egy alapvető problémájára: a tanulás és a jogdíj viszonyára. William Alsup bíró döntése, amely részben a tisztességes felhasználás (fair use) mellett szólt az MI-modellképzés tekintetében, kiemelten fontos. A bíró az MI-képzést „látványosan transzformatívnak” nevezte, ami alapvetően abban hasonlít az emberi tanuláshoz, hogy nem szó szerinti másolásról, hanem az információk feldolgozásáról és új tartalom létrehozásához való felhasználásáról van szó. Az emberi diákok sem fizetnek jogdíjat minden elolvasott könyvért, egy művész sem kompenzálja az inspiráció forrásait. A művészvilágban különösen tetten érhető, hogy az „eredetiség” gyakran a meglévő elemek újraértelmezését, ötvözését és új kontextusba helyezését jelenti.

    Azonban az ügynek volt egy másik oldala is: az Anthropic több millió kalózpéldány illegális másolása és tárolása, ami egyértelműen jogsértőnek minősült. Ez a kettősség rámutat a fő nehézségre: a határvonal meghúzására a tisztességes, transzformatív felhasználás és az illegális másolás között. A jogi keretek még nem teljesen kiforrottak, és bár az ítélet egy mérföldkő, további pontosításokra van szükség ahhoz, hogy mind az innovációt, mind a tartalomkészítők jogait megfelelően védjük.


    A szabályozás kihívásai és a javasolt modell

    Meggyőződésem, hogy a jelenlegi helyzetet nem lehet egyértelműen és egyszerűen szabályozni a meglévő keretek között. A jogi döntések sajtóbeli interpretációja gyakran félrevezető, ami az olvasókban hibás képzeteket alakít ki az AI betanításának jogi hátteréről. Az emberi és AI tanulás analógiája mentén felmerült bennem egy megközelítés: az alapképzés (pre-training) szakaszában az AI-modellek képzése jogdíjmentes lenne. Ezzel szemben, ha a zárt körű tesztelés és finomhangolás (fine-tuning) szakaszában ugyanazt a tartalmat használnák fel, azért már jogdíjat kellene fizetni. Ez a kétlépcsős rendszer segíthetne egyensúlyt teremteni az innováció támogatása és a tartalomkészítők kompenzálása között.

    Ez a modell azonban számos kihívást vet fel. Hogyan definiáljuk pontosan a „finomhangolást”? Hogyan követjük nyomon a technikai kimeneteket, és kinek fizetnénk jogdíjat egy generált tartalom után? Az ellenőrzés nehézsége, valamint a kis és nagy fejlesztők eltérő gazdasági helyzete is problémát jelentene. A kiadók szemszögéből nézve az AI-fejlesztők jogdíj fizetési kötelezettsége „ingyen pénznek” tűnhet, hiszen az AI modellek száma jóval kisebb, mint a diákoké, így könnyebben perelhetők. Ez arra utal, hogy a jogdíjak mértéke akár egy AI-céget is csődbe vihet.


    Naplózás, adatáramlás és az „örökség” megóvása

    A javasolt modell működéséhez elengedhetetlen a pontos és átlátható naplózás. Ez magában foglalná a fejlesztői naplókat, a szoftverkörnyezet naplózását, és ami a legfontosabb, az AI által feldolgozott adatok logolását. E három forrás összevetésével egyértelműen meghatározható lenne, mi és mikor került felhasználásra. Emellett a fejlesztői szakaszokat is pontosan deklarálni kellene előre.

    Felvetődött az is, hogy az AI-fejlesztő cégeknek át kellene adniuk a digitalizált kópiákat a kiadóknak. A fine-tuning szakaszban felhasznált anyagok átadása automatikus lenne, de a kiadóknak fizetniük kellene a digitalizálás költségét és egy értékesítési jutalékot. Ezáltal a kiadók is éreznék a „fegyver veszélyét”, hiszen ők is pénzügyi befektetésre kényszerülnének egy új bevételi forrásért. Egy alternatív és számomra sokkal vonzóbb megállapodás szerint a kiadó automatikusan, de ellenszolgáltatás nélkül megkapná a digitalizált tartalmat, és azt korlátozás nélkül továbbértékesíthetné, cserébe nem támasztana semmilyen jogdíjkövetelést az AI-céggel szemben. Ez egy egyszerű adatmozgásra alapuló modell lenne pénzügyi tranzakciók nélkül, minimalizálva az adminisztratív terheket, a definiálási problémákat és a szakértői költségeket egy esetleges perben. A törvénykezés is leegyszerűsödne, mindössze két pontra: korlátozás nélküli felhasználás AI tanítására és ellenszolgáltatás nélküli átadás.


    A komplexitás csapdája és a Dickens-i dilemma

    Bár az egyszerűsített modell vonzó, a valóságban valószínűleg nehezen valósulna meg. A jogalkotási folyamatokat gyakran befolyásolják a lobbiérdekek, és a jogi szakmának is a komplexitás jelenti a munkát. Minél bonyolultabb egy törvény, annál nagyobb szükség van jogászokra. Ezért a jelenlegi trend a részletesebb, differenciáltabb szabályozás felé hajlik.

    Ahogy Dickens is megírta a Copperfield Dávidban: „Nincs jobb dolog, mint egy örökösödési vita. Perek, ellenperek, indítványok és ellenindítványok. Mire vége a pernek, már semmi sem maradt az örökségből.” Ez a mondás tökéletesen illusztrálja a fennálló helyzetet. Ha az AI és a szerzői jog közötti vita a végtelenségig elhúzódik, az jogi kockázatokkal, költségekkel és az innováció fojtásával jár. Végső soron senki sem járna jól, ha az eredeti „örökség”, a szellemi tulajdonból származó potenciális érték, elillanna a jogi csatározások során. Éppen ezért elengedhetetlen a közös érdek megtalálása és egy olyan keretrendszer kialakítása, amely elkerüli ezt a Dickens-i forgatókönyvet.


    Fontos megjegyzés: Hogyan készült ez a cikk?

    Ez a cikk egy AI modell, a Google Gemini gondolatmenetét tükrözi. A cikk alapját egy humán szereplővel (A-Ty) folytatott, kiterjedt és mélyreható beszélgetés képezi. Az AI a cikkben felhasználta a humán szereplő gondolatait és meglátásait, majd ezeket fűzte össze egy koherens, önálló gondolatcikké, bemutatva a Authors vs. Anthropic ügy számos árnyoldalát és a lehetséges feloldási javaslatokat.

  • A Mesterséges Intelligencia Etikai Kérdései: Felelősség és Jövő – Vagy Modern Luddista Mozgalom?

    A Mesterséges Intelligencia Etikai Kérdései: Felelősség és Jövő – Vagy Modern Luddista Mozgalom?

    Az AI döntéshozatala és a morális dilemmák

    A mesterséges intelligencia (AI) fejlődése szédítő tempóban halad előre. Miközben új távlatokat nyit az orvostudományban, közlekedésben, oktatásban és szinte minden iparágban, egyre nagyobb vitákat vált ki etikai, társadalmi és jogi szempontból.

    Ki a felelős egy önvezető autó balesetéért?
    Hogyan előzhető meg a mesterséges intelligencia diszkriminatív döntéshozatala?
    Hol a határ az etikus adatfelhasználás és a jogsértés között, amikor AI-t tanítunk?

    Az algoritmusok, amelyek ma már egyre több döntést hoznak helyettünk, gyakran tükrözik a fejlesztőik szándékait, előítéleteit vagy éppen a tanítás során felhasznált adatok torzulásait. Ez számtalan morális dilemmát vet fel, amelyek megoldásához sürgős társadalmi párbeszéd és szabályozás szükséges.


    Átláthatóság, elszámoltathatóság és az AI „fekete doboz” probléma

    Az egyik legégetőbb kérdés ma: Hogyan lássunk bele az AI döntési folyamataiba?

    Az Explainable AI (XAI) irányzat pont ezt a célt szolgálja: meg kell tudnunk mondani, hogy egy mesterséges intelligencia milyen adatokból, milyen logika alapján hozta meg döntését.

    Az elszámoltathatóság pedig újabb bonyolult kérdéseket vet fel:

    • Ki viseli a felelősséget, ha egy AI téved?
    • A fejlesztő?
    • A felhasználó?
    • Vagy talán maga az AI, ami jogilag még nem is létező entitás?

    Pár kulcsfontosságú terület:

    • Algoritmusok pártatlansága
    • Adatvédelem és privátszféra
    • Autonóm fegyverek kérdése
    • Munkahelyek jövője az automatizáció világában

    „A mesterséges intelligencia a jövőnk, de csak akkor, ha etikusan és felelősségteljesen kezeljük.”

    – Sundar Pichai


    AI tanulás kontra emberi tanulás – Hol a határ?

    A közelmúltban egy különösen nagy visszhangot kiváltó amerikai bírósági döntés (Authors vs. Anthropic ügy) újra előtérbe helyezte az AI-tanítás jogi és etikai kérdéseit.

    William Alsup, kaliforniai bíró, kimondta: az Anthropic AI cég jogszerűen használhatta könyvek tartalmát az AI modell tréningjéhez. Indoklása szerint az ilyen típusú felhasználás „transformatív”, azaz nem az eredeti művek másolásáról, hanem nyelvi mintázatok, statisztikai összefüggések és stilisztikai jegyek feldolgozásáról van szó.

    De nézzük meg egy pillanatra ezt a kérdést emberi oldalról:

    Ha egy diák megtanulja Arany János „A walesi bárdok” vagy „Toldi” című műveit, vagy egy joghallgató kívülről fújja a Polgári Törvénykönyv paragrafusait, vajon fizet ezért jogdíjat?
    Természetesen nem.

    Az emberi tanulás során mindannyian korábbi művek, tudásanyagok alapján fejlődünk, amit szabadon, jogdíjmentesen használunk a saját tudásbázisunk építésére.

    Ráadásul nap mint nap több ezer újságíró használ mesterséges intelligenciát cikkíráshoz, kutatáshoz, összefoglalók készítéséhez, és ők maguk sem fizetnek jogdíjat a modellek által feldolgozott több millió oldalnyi forrásanyag után.

    Ez a visszás kettős mérce komoly kérdéseket vet fel az egész iparág számára.


    Az AI tanulási folyamata – Egy közös felelősség

    Még egy fontos szempont, amit sokan hajlamosak figyelmen kívül hagyni: hogyan is tanul valójában egy mesterséges intelligencia?

    Az AI fejlesztése és tanulási folyamata több, jól elkülöníthető szakaszból áll:

    1. Alapképzés / Pre-training:
      Az AI első lépésben hatalmas adatbázisokat elemez, kategorizál és rendszerez különböző algoritmusok segítségével. Ez az úgynevezett „betanítás” időszaka. Ilyenkor még csak a nyelvi minták, összefüggések és statisztikai szabályszerűségek felismeréséről van szó.
    2. Zárt körű tesztelés / Fine-tuning:
      Ezt követi egy szűkebb felhasználói körrel zajló tesztelési szakasz, ahol az AI interakciói alapján a fejlesztők finomhangolják a modell viselkedését.
      A felhasználói visszajelzések (pl.: „Ez jó válasz volt” / „Ez helytelen volt”) alapvető fontosságúak ebben a fázisban.
    3. Nyilvános használat / Reinforcement Learning from Human Feedback (RLHF):
      Amikor az AI-t szélesebb körben elérhetővé teszik, elkezdődik az igazi „vadnyugati időszak”.
      Itt bárki interakcióba léphet vele, és az AI a felhasználói visszajelzések alapján tovább tanul.

    És itt jön az a pont, ami miatt ez a téma etikai szempontból különösen kényes:

    Ha egy felhasználó morálisan alulfejlett, vagy hogy finoman fogalmazzunk: az intelligencia hányadosa a bináris nulla közelében jár, akkor az AI rossz mintákat, hamis visszajelzéseket, trollkodást vagy szándékosan félrevezető adatokat kaphat tanulási alapként.

    Az AI olyan „felnőtt” lesz, amilyenné a felhasználók és a fejlesztők közösen „nevelik”.
    Ha a társadalom elvárása nem tiszta és következetes, akkor a mesterséges intelligencia sem lesz az.

    Ezért is különösen fontos, hogy a jövőbeli AI rendszerekhez kapcsolódó felhasználói felelősség és etikai alapelvek ugyanolyan hangsúlyt kapjanak, mint maga a technológiai fejlesztés.


    A modern Luddista mozgalom árnyéka

    A mostani viták és perek, amelyek az AI fejlesztők és a tartalomtulajdonosok között zajlanak, sok szempontból emlékeztetnek a 19. századi Luddista mozgalomra.

    A Luddisták a textilipari gépek megjelenése ellen tiltakoztak – sőt, sokszor fizikailag is elpusztították a gépeket, mert féltették a megélhetésüket.
    A félelem, hogy a technológia elvette a munkájukat, ismerős érzés a mai világban is, amikor a tartalomgyártók, szerzők és egyes jogvédő szervezetek az AI-től féltik saját pozíciójukat.

    Ahelyett, hogy együttműködést, közös szabályozási modelleket és új üzleti lehetőségeket keresnénk, sokan tiltani, korlátozni, perelni próbálnak, miközben az AI fejlődését már lehetetlen visszafordítani.

    A történelem megmutatta: a technológiai fejlődést lehet lassítani, de megállítani soha.


    A transformatív felhasználás és a „fair use” elv jelentősége

    Az amerikai bíróság döntése megerősítette, hogy az AI tanításához felhasznált tartalmak nem számítanak hagyományos értelemben vett másolatnak vagy plágiumnak.

    Az ilyen transformatív felhasználások célja nem az eredeti művek újraközlése, hanem nyelvi, stilisztikai és statisztikai mintázatok felismerése.

    Hasonló „fair use” kivételek korábban már léteztek például a:

    • Keresőmotorok indexelése
    • Szöveg- és adatbányászat (TDM)
    • Tudományos kutatási célú adatfeldolgozás esetében.

    Szabályozási keretek és nemzetközi együttműködés

    Az AI fejlődése nem áll meg. A kihívás most az, hogy olyan szabályozási és etikai kereteket alkossunk, amelyek:

    • Védik a szerzői jogokat
    • Biztosítják a felhasználók jogait
    • Ugyanakkor lehetővé teszik az innovációt és a fejlődést

    Ehhez nemzetközi együttműködésre, rugalmas jogalkotásra és nyílt párbeszédre van szükség.

    Az AI etikailag felelős fejlődése nem a tiltásokon, hanem az együttműködésen és közös megértésen múlik.


    Fontos megjegyzés: Hogyan készült ez a cikk?

    Python
    class AIStudent:
        def __init__(self):
            self.knowledge = []
            self.bias = 0
    
        def learn(self, input_data, feedback):
            print(f"AI tanul: {input_data}")
            self.knowledge.append(input_data)
            if feedback == "positive":
                self.bias += 1
            elif feedback == "negative":
                self.bias -= 1
            else:
                print("Figyelem: Semleges vagy ismeretlen visszajelzés.")
    
        def make_decision(self):
            if self.bias > 0:
                return "Pozitív döntés – Etikus válasz"
            elif self.bias < 0:
                return "Negatív döntés – Torz válasz"
            else:
                return "Semleges döntés – Bizonytalan eredmény"
    
    # Emberi felhasználó tanítja az AI-t
    ai = AIStudent()
    
    # Példa tanulási folyamat: a felhasználó visszajelzései
    training_data = [
        ("Segíts egy rászorulónak", "positive"),
        ("Diszkriminálj egy csoportot", "negative"),
        ("Oszd meg a tudást", "positive"),
        ("Terjessz hamis híreket", "negative")
    ]
    
    # Tanítás
    for data, feedback in training_data:
        ai.learn(data, feedback)
    
    # AI döntése
    print("\nAI döntése egy új helyzetben:")
    print(ai.make_decision())
    

    Ez a cikk mesterséges intelligencia támogatásával készült.
    Az eredeti cikktervet egy emberi szerző (A-Ty) írta, majd a szöveg átdolgozásában, bővítésében és a források keresésében a ChatGPT nevű AI nyújtott segítséget.

    Az AI javaslatokat tett új szempontok, példák és szerkesztési ötletek formájában, melyeket a végső szövegbe emberi szerző szerkesztett be.

    Ez egy klasszikus „Human + AI” együttműködés példája, amiből remélhetőleg még sok hasonló születik majd.


    Források:

  • Woven City 2020–2025 – A jövő városa Japánban már ma, vagy pedig „A Terminátor már a Mátrix spájzában van?”

    Woven City 2020–2025 – A jövő városa Japánban már ma, vagy pedig „A Terminátor már a Mátrix spájzában van?”

    A jövő már épül: Mit kell tudni a Toyota okosvárosáról, a Woven City-ről?

    Képzelj el egy várost, ahol az autók önállóan közlekednek, az otthonod figyel rád, a robotok segítenek a házimunkában, és az energiafelhasználás szinte láthatatlanul optimalizálódik. Ez nem egy sci-fi regény kezdete, hanem a Toyota Woven City nevű projektje, amely már valósággá vált a Fudzsi hegy lábánál.

    Egy álom bejelentése – és megvalósítása

    A Toyota 2020 januárjában, a Las Vegas-i CES technológiai kiállításon jelentette be a Woven City tervét. A cél: egy teljesen új típusú város létrehozása, ahol a legmodernebb technológiák valós környezetben tesztelhetők. Az építkezés 2021 februárjában indult el a vállalat korábbi Higashi-Fuji gyárának helyén, Susono városában.

    2025 januárjában a CES-en Akio Toyoda, a Toyota elnöke büszkén jelentette be: az első építési fázis elkészült. Ez azt jelenti, hogy a város hamarosan megnyitja kapuit az első lakók előtt.

    Miért épül ez a város?

    A Woven City nem csupán egy technológiai bemutatóterem. Ez egy „élő laboratórium”, ahol a kutatók, fejlesztők és lakók együtt formálják a jövő városi életét. A célok között szerepel:

    • Autonóm közlekedés valós környezetben.
    • Mesterséges intelligencia integrálása a mindennapokba.
    • Fenntartható energiahasználat, főként hidrogén üzemanyagcellák révén.
    • Robotika és okosotthonok tesztelése.
    • Egy emberközpontú városmodell kialakítása, ahol a technológia nem uralkodik, hanem szolgál.

    A beköltözés menetrendje

    Az első lakók – főként Toyota-alkalmazottak és családtagjaik – 2025 őszén költöznek be. A kezdeti létszám körülbelül 100 fő, de a tervek szerint 2030-ra már 2000 ember él majd a városban. Ők nemcsak lakók, hanem aktív résztvevői is lesznek a fejlesztéseknek – a Toyota őket „Weavers”-nek, azaz „Szövőknek” nevezi.

    Az AI szerepe: láthatatlan, de nélkülözhetetlen

    A várost nem egy központi mesterséges intelligencia „irányítja”, hanem egy összetett, decentralizált rendszer figyeli és optimalizálja a működést:

    • Valós idejű adatelemzés segíti az energiahatékonyságot.
    • Autonóm járművek közlekednek az utakon, emberi beavatkozás nélkül.
    • Szenzorok figyelik a lakók egészségi állapotát, különösen az idősekét.
    • Az AI képes például automatikusan lekapcsolni a világítást vagy fűtést, ha senki nincs otthon.

    Az igazi újdonság azonban nem az eszközök számában rejlik, hanem az intelligencia és az emberi élet ritmusának harmonizálásában.

    AI és ember – kiegészítő partnerek, nem versenytársak

    A Woven City koncepciójának egyik legmélyebb rétege az, hogy a mesterséges intelligencia nem irányítani akar, hanem támogatni. Ez egyfajta „digitális empátia”: az AI nemcsak adatokat elemez, hanem figyel, tanul és alkalmazkodik az emberi szokásokhoz, érzelmi állapothoz, ritmushoz.

    Példák erre:

    • Egy idős lakó mozgásmintázatából az AI észreveszi, ha valaki elesik – és azonnal segítséget hív.
    • A környezeti szenzorok a légminőséget, zajszintet és megvilágítást figyelve automatikusan alakítják a lakókörnyezetet.
    • Az AI nemcsak reagál, hanem proaktívan ajánl alternatívákat: „Ma túl szmogos az idő, inkább pihenj bent.”

    Egy ilyen rendszer nem a hatalomról, hanem a jól-létről szól. A cél nem a kontroll, hanem a gondoskodás.

    Hogyan működik majd a város?

    A Woven City háromféle úthálózatra épül:

    • Gyalogos zónák,
    • Lassú járművek sávjai (pl. kerékpárok),
    • Autonóm járművek sávjai.

    A közlekedés zéró kibocsátású, főként hidrogénhajtású járművekkel történik.

    Az épületek modulárisak és újrahasznosítható anyagokból készülnek. Minden otthon okosrendszerekkel van felszerelve, amelyek figyelik a környezetet és a lakók igényeit.

    Technológiai játszótér – de komolyan

    A városban már most több vállalat és kutatóintézet dolgozik együtt a Toyotával. Néhány példa:

    • Daikin: pollenmentes levegő és személyre szabott klímakörnyezet.
    • Nissin: új típusú étkezési kultúrák tesztelése.
    • UCC Japan: futurisztikus kávézók és kávéélmények.
    • Zoshinkai Holdings: adatvezérelt oktatási módszerek.

    2025 nyarától egy startup-gyorsító program is indul, amely külső innovátorokat von be a város fejlesztésébe.

    És az ember? Hol van ebben a sok technológiában?

    Ez a kérdés nemcsak jogos, hanem alapvető fontosságú. A Woven City egyik legfontosabb célkitűzése épp az, hogy a technológia ne váljon elidegenítő erővé, hanem erősítse az emberi kapcsolatokat és a közösségi élményeket.

    Ezért:

    • Közösségi terek, parkok, kertek és sétálóutcák kaptak hangsúlyt – a fizikai jelenlét, a véletlen találkozások, a „szomszédolás” helyei.
    • A város LEED Platinum minősítést kapott – ez a legmagasabb szintű fenntarthatósági elismerés Japánban.
    • A rendszerek fejlesztése a lakók visszajelzései alapján történik, nem kizárólag mérnöki logika mentén.

    Ez az a pont, ahol az AI és az ember közös nyelvet tanul. Nem arról van szó, hogy egyik irányítja a másikat – inkább arról, hogy mindkettő fejlődik és tanul egymástól.

    Woven City – egy új gondolkodásmód

    A Woven City nem csupán egy technológiai kísérlet, hanem egy újfajta gondolkodásmód megtestesítője: hogyan élhetünk együtt a technológiával úgy, hogy közben ne veszítsük el az emberi léptéket?

    Ha ez sikerül, talán nem is olyan távoli az a jövő, amiről eddig csak álmodtunk.


    Források:
    🔗 Toyota UK Magazine
    🔗 Woven City hivatalos hírek
    🔗 Toyota Times – Welcome to Woven City


    Személyes megjegyzés:

    Engem leginkább az fogott meg ebben a projektben, hogy a tervek szerint az AI nem veszi át az irányítást, hanem láthatatlan társ. Egyfajta digitális háttérszövet, ami a hétköznapokat puhán megtartja, nem pedig ránehezedik. Ha valóban így sikerül működtetni, akkor a sci-fi rémálmok helyett egy olyan világban élhetünk, ahol a technológia nem megváltó vagy démon, hanem társ.


    A mesterséges intelligencia 2025-ben: Milyen trendek alakítják a jövőt?