|
LinkBack | Ämnesverktyg |
2010-10-10, 13:00 | #121 |
Kommer idag börja snickra på annan rankformel för att maximera vinstchansen (istället för roi som nu) för att användas i Vxx.
|
|
2010-10-10, 13:02 | #122 |
Föresten tips till andra som ska göra samma sak: man vinner riktigt mycket på att hårt optimera koden! Min kod är över 500 ggr snabbare än den ursprungliga!
|
|
2010-10-12, 01:07 | #123 |
Ush då, hade 17 raka förluster, men bröt trenden idag. Ligger fortfarande på minus dock :|
|
|
2010-10-12, 17:36 | #124 |
Testar att filtrera med minimiodds 5 idag, se hur det går.
|
|
2010-10-12, 22:27 | #125 |
11 units satsade, 10,79 tillbaka idag. Inte illa pinkat för ett program som själv rekar [ja, jag fattar att det är för kortsiktigt att dra några slutsatser...] Nåra tweaks till så kanske man kan nå break even på sikt.
|
|
2010-10-13, 12:18 | #126 |
Nu förklarar sig det dåliga resultatet... Visar sig att jag hade en bug i rankningsformeln för analys av optimala värden för vikterna. Rekomendationen av vilka hästar man ska satsa på var rätt, men ett av värdena som användes var fel eftersom analysdelen gav fel resultat där. Tyckte väl att det var konstigt att det värdet var som det var... Nu får man unge fär det värdet man förväntar sig. Tack vare detta ska jag idag köra med olika vikter beroende på vilken distans loppet är. Förut har jag kört på en rankning för alla lopp.
|
|
2010-10-14, 20:37 | #128 |
Tror jag väntar med vidare utveckling tills jag har en betydligt bättre dator. Den pallar helt enkelt inte göra analyser inom rimlig tid, speciellt inte på den mängden data jag kommer vilja köra på.
|
|
2010-10-14, 21:17 | #129 |
Kör du mycket direkt mot databas eller är det bara oändligt många kombinationer du går igenom? Hoppas det löser sig och att du har möjlighet att vidareutveckla då två är bättre än en!
|
|
2010-10-14, 21:53 | #130 |
En körning på 700 lopp med grova steg på vikterna skulle ta 45 dar... Och då är det hårt optimerat där allt från databasen läggs i arrayer och allt går sedan därifrån. Sitter på en lånad reservbox som jag köpte till min morsa för 100kr...
|
|
2010-10-14, 22:19 | #131 |
Ok, 45 dagar är inte direkt hållbart
Borde det dock inte gå snabbare om du läser in allt/delvis i minnet och minskar anrop mot DB? Hur som helst hoppas jag att du ordnar en ny dator så att du kommer vidare! |
|
2010-10-14, 23:23 | #132 |
Jag vet ju vad som ska göras och koden är väldigt bra som den är, men 45 dar är med LITEN databas och GROVA steg. När jag räknade på vettig databas och hyffsade steg skulle det ta runt två år att processa!
Som sagt all beräkning körs mot arrayer som fyllts en gång bara, när väl beräkningrna börjar så sker ingen databasaccess alls, det var därför appet blev så mycket snabbare när jag byggde om allt. Kommer fortsätta att snickra på interface osv förmodligen, men analysen blir det inget mer av på ett tag. Har även börjat site som är ett mellanting mellan abcranken och programmet (ej webapp) jokersystemet. Abcranken är lite väl enkel och jokersystmet (dåligt namn btw) är bra men är ett normalt program och har flera funktioner som verkligen inte har något med verkligheten att göra utan enbart finns för att få just fler funktioner och därmed få en anledning till ett högre pris. Plus att det kommer bli billigare än både abcranken och jokersystmet. Nått i stil med RRR fast som webapp. |
|
2010-10-15, 00:30 | #133 |
Det är straffet man får ta för att köra med script-språk istället för kompilerat. Det går (ibland mycket) långsammare. Sen klart att en långsam datan påverkar en hel det också.
|
|
2010-10-15, 01:13 | #134 |
Jag funderade skarpt på att bygga om till C, skulle inte ta mig många timmar att fixa, men kom fram till att det inte var värt besväret. PHP är dock skapligt snabbt eftersom det inte interpretas utan kompileras (om än ej till maskinkod) innan det körs. Jag funderade även på att göra en klient så att andra kan hjälpa till och söka efter bra vikter distribuerat. Men mängden data jag har och antalet personer som skulle kunna tänka sig donera cpu-tid är mycket limiterat dessvärre så det kändes inte lönt.
|
|
2010-10-15, 12:47 | #135 |
Ett tips är att ta en titt på boken Heath, Scientific Computing (2002), eller numme i allmänhet. Det finns väldigt mycket fint om hur man skall optimera beräkningar och bygga matriser för att spara datorkraft och körningstid. Jag har bara läst en gk i ämnet så mer kan jag inte tillföra annat än möjligen betänka att använda matlab.
/B |
|
|