May 26, 2022

Welkom bij Perceptron, TechCrunch’s wekelijkse overzicht van AI-nieuws en onderzoek van over de hele wereld. Machine learning is tegenwoordig een sleuteltechnologie in vrijwel elke branche, en er gebeurt veel te veel voor iemand om het allemaal bij te houden. Deze column is bedoeld om enkele van de meest interessante recente ontdekkingen en artikelen op het gebied van kunstmatige intelligentie te verzamelen – en uit te leggen waarom ze ertoe doen.

(Voorheen bekend als Deep Science; bekijk hier eerdere edities.)

De samenvatting van deze week begint met een paar vooruitstrevende onderzoeken van Facebook/Meta. De eerste is een samenwerking met de Universiteit van Illinois in Urbana-Champaign die gericht is op het verminderen van de hoeveelheid uitstoot van betonproductie. Beton is verantwoordelijk voor zo’n 8 procent van de CO2-uitstoot, dus zelfs een kleine verbetering kan ons helpen de klimaatdoelstellingen te halen.

Dit wordt ‘slump-testen’ genoemd.

Wat het Meta/UIUC-team deed, was een model trainen op meer dan duizend concrete formules, die verschilden in de verhoudingen van zand, slakken, gemalen glas en andere materialen (je kunt bovenaan een voorbeeld van meer fotogeniek beton zien). Door de subtiele trends in deze dataset te vinden, was het in staat om een ​​aantal nieuwe formules uit te voeren die optimaliseerden voor zowel sterkte als lage emissies. De winnende formule bleek 40 procent minder uitstoot te hebben dan de regionale norm, en voldeed aan… nou ja, sommige van de sterkte-eisen. Het is veelbelovend, en vervolgonderzoek in het veld zou de bal snel weer in beweging moeten brengen.

De tweede Meta-studie heeft te maken met het veranderen van de manier waarop taalmodellen werken. Het bedrijf wil samenwerken met experts op het gebied van neurale beeldvorming en andere onderzoekers om te vergelijken hoe taalmodellen zich verhouden tot werkelijke hersenactiviteit tijdens vergelijkbare taken.

Ze zijn vooral geïnteresseerd in het menselijk vermogen om woorden ver vooruit te lopen op de huidige terwijl ze spreken of luisteren – zoals weten dat een zin op een bepaalde manier zal eindigen, of dat er een ‘maar’ komt. AI-modellen worden erg goed, maar ze werken nog steeds voornamelijk door woorden één voor één toe te voegen, zoals Legoblokjes, af en toe achteruitkijkend om te zien of het zinvol is. Ze zijn nog maar net begonnen, maar ze hebben al een aantal interessante resultaten.

Terug op de materiaaltip, beginnen onderzoekers van Oak Ridge National Lab met het plezier van AI-formulering. Met behulp van een dataset van kwantumchemische berekeningen, wat die ook zijn, creëerde het team een ​​neuraal netwerk dat materiaaleigenschappen kon voorspellen – maar keerde het vervolgens om zodat ze eigenschappen konden invoeren en materialen konden suggereren.

“In plaats van een materiaal te nemen en de gegeven eigenschappen ervan te voorspellen, wilden we de ideale eigenschappen voor ons doel kiezen en achteruit werken om snel en efficiënt met een hoge mate van vertrouwen voor die eigenschappen te ontwerpen. Dat staat bekend als inverse design”, zegt Victor Fung van ORNL. Het lijkt te hebben gewerkt, maar je kunt het zelf controleren door de code op Github uit te voeren.

Weergave van de bovenste helft van Zuid-Amerika als een kaart van de hoogte van de luifel.

Afbeeldingscredits: ETHZ

Dit ETHZ-project, dat zich bezighoudt met fysieke voorspellingen op een geheel andere schaal, schat de hoogte van boomkruinen over de hele wereld met behulp van gegevens van ESA’s Copernicus Sentinel-2-satellieten (voor optische beelden) en NASA’s GEDI (orbitale laserbereik). De combinatie van de twee in een convolutioneel neuraal netwerk resulteert in een nauwkeurige globale kaart van boomhoogten tot 55 meter hoog.

Dit soort regelmatig onderzoek van biomassa op wereldschaal is belangrijk voor klimaatmonitoring, zoals Ralph Dubayah van NASA uitlegt: “We weten simpelweg niet hoe hoog bomen wereldwijd zijn. We hebben goede globale kaarten nodig van waar bomen staan. Want telkens als we bomen kappen, brengen we koolstof in de atmosfeer en we weten niet hoeveel koolstof we vrijgeven.”

U kunt hier eenvoudig door de gegevens in kaartvorm bladeren.

Ook met betrekking tot landschappen gaat dit DARPA-project over het creëren van extreem grootschalige gesimuleerde omgevingen waarin virtuele autonome voertuigen kunnen rijden. Ze gunden het contract aan Intel, hoewel ze misschien wat geld hadden bespaard door contact op te nemen met de makers van het spel Snowrunner, dat in feite doet wat DARPA wil voor $ 30.

Beelden van een gesimuleerde woestijn en een echte woestijn naast elkaar.

Afbeeldingscredits: Intel

Het doel van RACER-Sim is om off-road AV’s te ontwikkelen die al weten hoe het is om over een rotsachtige woestijn en ander ruw terrein te denderen. Het 4-jarige programma zal zich eerst richten op het creëren van de omgevingen, het bouwen van modellen in de simulator en later op het overbrengen van de vaardigheden naar fysieke robotsystemen.

Op het gebied van AI-farmaceutica, dat momenteel ongeveer 500 verschillende bedrijven heeft, heeft MIT een verstandige benadering in een model dat alleen moleculen suggereert die daadwerkelijk gemaakt kunnen worden. “Modellen suggereren vaak nieuwe moleculaire structuren die in een laboratorium moeilijk of onmogelijk te maken zijn. Als een chemicus het molecuul niet kan maken, kunnen zijn ziektebestrijdende eigenschappen niet worden getest.”

Ziet er cool uit, maar kun je het maken zonder eenhoornhoorn in poedervorm?

Het MIT-model “garandeert dat moleculen zijn samengesteld uit materialen die kunnen worden gekocht en dat de chemische reacties die plaatsvinden tussen die materialen de wetten van de chemie volgen.” Het klinkt een beetje als wat Molecule.one doet, maar dan geïntegreerd in het ontdekkingsproces. Het zou zeker leuk zijn om te weten dat het wondermiddel dat je AI voorstelt geen sprookjesstof of andere exotische materie vereist.

Een ander werk van MIT, de Universiteit van Washington en anderen gaat over het leren van robots om te communiceren met alledaagse voorwerpen – iets waarvan we allemaal hopen dat het in de komende decennia gemeengoed wordt, aangezien sommigen van ons geen vaatwasser hebben. Het probleem is dat het erg moeilijk is om precies te vertellen hoe mensen omgaan met objecten, omdat we onze gegevens niet in hoge betrouwbaarheid kunnen doorgeven om een ​​model mee te trainen. Er komt dus veel annotatie en handmatige etikettering bij kijken.

De nieuwe techniek is gericht op het zeer nauwkeurig observeren en afleiden van 3D-geometrie, zodat het systeem slechts een paar voorbeelden nodig heeft van een persoon die een object grijpt om te leren hoe het het zelf moet doen. Normaal gesproken zijn er honderden voorbeelden of duizenden herhalingen in een simulator nodig, maar deze had slechts 10 menselijke demonstraties per object nodig om dat object effectief te manipuleren.

Afbeeldingscredits: MIT

Het behaalde een slagingspercentage van 85 procent met deze minimale training, veel beter dan het basismodel. Het is momenteel beperkt tot een handvol categorieën, maar de onderzoekers hopen dat het kan worden veralgemeend.

Als laatste deze week is er veelbelovend werk van Deepmind over een multimodaal “beeldtaalmodel” dat visuele kennis combineert met taalkundige kennis, zodat ideeën als “drie katten die op een hek zitten” een soort cross-overrepresentatie hebben tussen grammatica en beeldspraak. Dat is tenslotte de manier waarop onze eigen geest werkt.

Flamingo, hun nieuwe ‘general purpose’-model, kan visuele identificatie uitvoeren, maar ook een dialoog aangaan, niet omdat het twee modellen in één zijn, maar omdat het taal en visueel begrip samenbrengt. Zoals we van andere onderzoeksorganisaties hebben gezien, levert dit soort multimodale benadering goede resultaten op, maar is nog steeds zeer experimenteel en rekenintensief.

Leave a Reply

Your email address will not be published.

error: Content is protected !!