Umetna inteligenca zaznava poškodbe avtomobila
Nova programska oprema podjetja DAT uporablja fotografije za identifikacijo poškodovanih delov vozila in vrsto poškodbe

Umetna inteligenca zaznava poškodbe avtomobila
»FastTrackAI« je ime novega izdelka družbe Deutsche Automobil Treuhand (DAT), ki je trenutno še v testni fazi. Trenutno potekajo pilotni projekti s strankami, pripravljenost na trg pa se pričakuje konec leta 2022.
In za to gre: kot razkrivata črki AI v imenu izdelka, gre za umetno inteligenco. Pri DAT se to imenuje DAT7XM. In analiziral naj bi slike poškodovanih vozil ter ugotavljal njihovo škodo. Fast Track AI nato izvede začetni izračun obsega popravil na podlagi podatkovne baze vozil DAT. Vsi deli, logika popravil in sestavljeno delo se upoštevajo na podlagi trenutnih in strukturiranih podatkov proizvajalca, ki so na voljo za vse znamke v sistemu DAT.
Prav s kombinacijo najsodobnejših metod umetne inteligence z obstoječim strokovnim znanjem DAT za izračune popravil ponudnik pričakuje ustrezno konkurenčno prednost pred novoustanovljenimi podjetji, ki imajo samo znanje in izkušnje na področju programske opreme za prepoznavanje slik.
Ko bo izdelek prišel na trg, naj bi ga bilo mogoče vključiti v obstoječi sistem DAT. Nato je mogoče naložiti do deset fotografij poškodovanega vozila. Sistem jih nato primerja s slikami nepoškodovanih vozil, zazna udrtine in praske ter nato izračuna potrebne popravila. Po DAT naj bi zajem slike trajal le približno dve minuti, izračun pa približno tri minute. Na splošno podjetje pričakuje, da bo izdelek AI prihranil čas za približno pol ure.
Razvoj gre v smeri samopostrežnega sveta, procesi bodo postali hitrejši, učinkovitejši in bolj digitalni, so povedali na digitalni predstavitvi novega sistema. Telematika je tudi problem pri DAT, drugem vhodnem kanalu, ki ga je treba v prihodnosti integrirati.
Odgovorni DAT strokovnjaki poudarjajo, da mora biti FastTrackAI zgolj orodje, nikakor pa ne smemo popolnoma izničiti človeškega faktorja. Na koncu je odločitev še vedno na slednjem.