Tjena!

Funderar ofta på om folk faktiskt använder AI. Det marknadsförs så otroligt mycket, då tänker jag att det måste finnas en marknad någonstans.

Samtidigt så är det ingen som pratar om AI verktyg, att dem använt det ena eller det andra.

Jag som jobbar inom IT tycker det är lite konstigt ändå att det är så pass lite prat om folk som personligen använder olika AI verktyg.

Jag vet att AI har använts i många år. Det jag menar specifikt är alla dessa nya AI verktyg som kommit ut på marknaden sedan de stora språkmodellerna blev mer tillgängliga.

  • @[email protected]
    link
    fedilink
    13 months ago

    Det var nog Wayland, 1.2-1.7GB med X11. Har iofs stängt av HW acceleration i några program också men verkar ändå ligga minst 500MB lägre. Alltså vi får nog vänta ett tag till innan Wayland är bättre än X11 tycker mest det är nackdelar fortfarande. Hade något märkligt blinkande på X11 så det var därför jag bytte men verkar ha löst det också med att köra skärmen på 120 HZ istället. Ska prova lite tyngre modeller då när det finns lite mer utrymme. Är glad jag inte snålade med ett 6700, 10GB VRAM men skulle gått på 16 eller mer med facit i hand. Aja det här duger så länge är mest glad det funkar så här pass bra jämfört med gratis varianterna i molnet.

    Ja det blir nog GPU passthrough i framtiden kan man ju köra Windows i ett VM också för vissa spel hade varit nice. Aha ja Team Red är det som gäller här så det låter ju bra det kan funka så man slipper byta lag.

    Det var en riktigt bra deal. 3090 var ett monster när det var nytt så borde hålla rätt bra. Generöst med VRAM är ju trevligt för att vara Nvidia.

    • ffhein
      link
      13 months ago

      Kanske minns fel och blandar ihop termerna, men den sortens GPU passthrough jag tänkte på är att låta signalen från det bättre grafikkortet skickas genom APU:ns kontakt så man slipper ha dubbla monitorkablar. Men det är klart, ifall jag skulle kunna köra Windows i VM med 100% prestanda så skulle jag slippa dual boota för VR.

      Uppgraderade från 3080 så minimal skillnad bortsett från minnet :D Men vi får hoppas att AMD satsar mer på ROCm i framtiden, de har ju varit mer generösa med VRAM på sina kort.

      • @[email protected]
        link
        fedilink
        23 months ago

        Ok ja det kan va olika passthrough, är inte jättepåläst, det verkar rätt komplicerat. Tänkte nåt sånt här. Eller detta typ som man låter ett VM ta full kontroll över en USB-enhet men iom grafikkortet även ger bild så försvinner ju den från hosten ifall man skickar det till VMet så då måste ju något annat ta över. Verkar kräva två uppsättningar kablar kopplade till vardera GPU. Du pratar om en slags laptoplösning för en desktop?

        • ffhein
          link
          13 months ago

          Exakt, men det var nog hybrid graphics det hette. Tanken var dels att lämna 100% vram ledigt för AI och dels för att spara ström genom att sätta Nvidia-kortet i sovläge när det inte används. Fick det typ att fungera, men de återstående problemen var att Xorg alltid körde på Nvidia-kortet (andra program default:ade till iGPUn, om jag inte explicit sa att de skulle köra på Nvidia) och jag kunde inte få något annat än 60Hz till skärmarna. Sen sa rocm-smi eller ngt liknande program att iGPU:n drog 30W när den användes, vilket är lika mkt som RTX-kortet drar i idle, så ifall det är korrekt så skulle det ändå inte bli någon strömbesparing.